Linux (fr)

  • Quad9, résolveur DNS public, et sécurisé par TLS (Dépêches LinuxFR)

    Le résolveur DNS Quad9 (prononcer « quoi de neuf » en français) a été annoncé aujourd'hui. C'est un résolveur DNS public, mais dont l'originalité est d'être accessible de manière sécurisée, avec TLS (DNS sur TLS est décrit dans le RFC 7858).

    Alors, le lectorat de LinuxFr.org, étant super au courant, va dire « mais des résolveurs DNS publics, il y en a plein ! Pourquoi un de plus ? ». Le plus connu est Google Public DNS mais il en existe beaucoup d'autres, avec des politiques et des caractéristiques techniques diverses. Notamment, tous (à l'exception de Cisco OpenDNS) sont non sécurisés : le lien entre vous et le résolveur est en clair, tout le monde peut écouter, et il n'est pas authentifié, donc vous croyez parler à Google Public DNS mais en fait vous parlez au tricheur que votre FAI a annoncé dans ses réseaux locaux.

    Et Quad9, c'est mieux, alors ? D'abord, c'est géré par l'organisme sans but lucratif bien connu PCH, qui gère une bonne partie de l'infrastructure du DNS (et qui sont des copains, oui, je suis subjectif).

    Quad9, lui, sécurise par TLS (RFC 7858). Cela permet d'éviter l'écoute par un tiers, et cela permet d'authentifier le résolveur (mais attention je n'ai pas encore testé ce point, Quad9 ne semble pas distribuer de manière authentifiée ses clés publiques).

    Question politique, des points à noter :

    • Quad9 s'engage à ne pas stocker votre adresse IP ;
    • leur résolveur est un résolveur menteur : il ne répond pas (délibérément) pour les noms de domaines qu'il estime liés à des activités néfastes comme la distribution de logiciel malveillant.

    L'adresse IPv4 de Quad9, comme son nom l'indique, est 9.9.9.9. Son adresse IPv6 est 2620:fe::fe. D'abord, un accès classique en UDP en clair, sur votre distribution Linux favorite :

    % dig +nodnssec @9.9.9.9 AAAA irtf.org   
    
    ; <<>> DiG 9.10.3-P4-Ubuntu <<>> +nodnssec @9.9.9.9 AAAA irtf.org
    ; (1 server found)
    ;; global options: +cmd
    ;; Got answer:
    ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 11544
    ;; flags: qr rd ra ad; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1
    
    ;; OPT PSEUDOSECTION:
    ; EDNS: version: 0, flags:; udp: 4096
    ;; QUESTION SECTION:
    ;irtf.org.      IN AAAA
    
    ;; ANSWER SECTION:
    irtf.org.       1325 IN AAAA 2001:1900:3001:11::2c
    
    ;; Query time: 4 msec
    ;; SERVER: 9.9.9.9#53(9.9.9.9)
    ;; WHEN: Thu Nov 16 09:49:41 +08 2017
    ;; MSG SIZE  rcvd: 65
    

    On y voit que Quad9 valide avec DNSSEC (la réponse a bien le bit AD - Authentic Data).

    Maintenant, testons la nouveauté importante de ce service, DNS sur TLS. C'est du TLS donc on peut y aller avec openssl :

    % openssl s_client -connect \[2620:fe::fe\]:853 -showcerts
    

    On voit que Quad9 répond bien en TLS, et a un certificat Let's Encrypt.

    Testons ensuite avec un client DNS, le programme getdns_query distribué avec getdns (l'option -l L lui dit d'utiliser DNS sur TLS) :

    % getdns_query @9.9.9.9 -s -l L www.afnic.fr AAAA
    {
      "answer_type": GETDNS_NAMETYPE_DNS,
      "canonical_name": <bindata for lb01-1.nic.fr.>,
      "just_address_answers":
      [
        {
          "address_data": <bindata for 2001:67c:2218:30::24>,
          "address_type": <bindata of "IPv6">
        }
     ...
    

    On peut utiliser tshark pour vérifier qu'on est bien en TLS :

    % tshark -n -i eth0  -d tcp.port==853,ssl host 9.9.9.9 
    

    Le -d tcp.port==853,ssl était là pour dire à tshark d'interpréter ce qui passe sur le port 853 (celui de DNS-sur-TLS) comme étant du TLS. On voit bien le dialogue TLS mais évidemment pas les questions et réponses DNS puique tout est chiffré.

    Bien, maintenant que les tests se passent bien, comment utiliser Quad9 pour la vraie résolution de noms ? On va utiliser stubby pour parler à Quad9. Le fichier de configuration Stubby sera du genre :

    listen_addresses:
      - 0::1@8053
    
    dns_transport_list:
      - GETDNS_TRANSPORT_TLS
    
    upstream_recursive_servers:
    # Quad9
       - address_data: 9.9.9.9
         tls_auth_name: "dns.quad9.net"
       - address_data: 2620:fe::fe
         tls_auth_name: "dns.quad9.net"
    ```On indique à stubby d'écouter sur l'adresse locale ::1, port 8053, et de faire suivre les requêtes en DNS sur TLS à 9.9.9.9 ou 2620:fe::fe. On lance stubby :
    
    
    
        % stubby   
    
    Et on peut le tester, en utilisant dig pour interroger à l'adresse et au port indiqué :
    
    
    

    % dig @::1 -p 8053 A www.catstuff.com

    ; <<>> DiG 9.10.3-P4-Ubuntu <<>> @::1 -p 8053 A www.catstuff.com
    ; (1 server found)
    ;; global options: +cmd
    ;; Got answer:
    ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 20910
    ;; flags: qr rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1

    ;; OPT PSEUDOSECTION:
    ; EDNS: version: 0, flags: do; udp: 65535
    ;; QUESTION SECTION:
    ;www.catstuff.com. IN A

    ;; ANSWER SECTION:
    www.catstuff.com. 600 IN A 216.157.88.24

    ;; Query time: 974 msec
    ;; SERVER: ::1#8053(::1)
    ;; WHEN: Thu Nov 16 20:29:26 +08 2017
    ;; MSG SIZE rcvd: 77

    ```Et on peut vérifier avec tshark que Stubby parle bien avec Quad9, et en utilisant TLS.

    Stubby a l'avantage de bien gérer TCP, notamment en réutilisant les connexions (il serait très coûteux d'établir une connexion TCP pour chaque requête DNS, surtout avec TLS par dessus). Mais il n'a pas de cache des réponses, ce qui peut être ennuyeux si on est loin de Quad9. Pour cela, le plus simple est d'ajouter un vrai résolveur, ici Unbound. On le configure ainsi :

    server:
       interface: 127.0.0.1
       do-not-query-localhost:  no
    forward-zone:
      name: "."
        forward-addr: ::1@8053
    ```Avec cette configuration, Unbound va écouter sur l'adresse 127.0.0.1 (sur le port par défaut, 53, le port du DNS) et relayer les requêtes pour lesquelles il n'a pas déjà une réponse dans son cache vers Stubby (::1, port 8053). Interrogeons Unbound :
    
    
    
        % dig @127.0.0.1 A mastodon.gougere.fr
    
        ; <<>> DiG 9.10.3-P4-Ubuntu <<>> @127.0.0.1 A mastodon.gougere.fr
        ; (1 server found)
        ;; global options: +cmd
        ;; Got answer:
        ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 40668
        ;; flags: qr rd ra; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1
    
        ;; OPT PSEUDOSECTION:
        ; EDNS: version: 0, flags: do; udp: 4096
        ;; QUESTION SECTION:
        ;mastodon.gougere.fr.   IN A
    
        ;; ANSWER SECTION:
        mastodon.gougere.fr.    600 IN A 185.167.17.10
    
        ;; Query time: 2662 msec
        ;; SERVER: 127.0.0.1#53(127.0.0.1)
        ;; WHEN: Thu Nov 16 20:36:09 +08 2017
        ;; MSG SIZE  rcvd: 64
    
    
    Unbound a une mémoire (le cache) donc si on recommance la requête aussitôt, la réponse arrivera bien plus vite et on verra le TTL  diminué.
    

    Lire les commentaires

  • Un nouveau moteur de rendu ultra-rapide pour Firefox : Quantum Render (Dépêches LinuxFR)

    Après l'excellent article de cet été sur le nouvel interpréteur de Firefox, Lin Clark récidive pour nous parler du moteur de rendu qui sera utilisé dans les futures versions de votre navigateur favori.

    Le précédent article ayant particulièrement plu et ayant été repris sur le blog de Mozfr, nous vous proposons une traduction dans la suite de cette dépêche.

    Dessin d'un moteur d'avion détaillé avec les différents parties du projet Quantum

    Veuillez noter que l’article original est sous licence Creative Common Attribution — Partage dans les mêmes conditions 3.0 non transposé, cette dépêche suit donc les mêmes règles.

    Sommaire

    La publication de Firefox Quantum approche. Elle apporte plusieurs améliorations de performance dont le moteur CSS très rapide que nous avons repris de Servo.

    Une autre brique importante de la technologie de Servo n'est pas encore intégrée à Firefox Quantum, même s'il est prévu qu'elle le soit rapidement. Il s'agit de WebRender, qui sera ajouté à Firefox dans le cadre du projet Quantum Render.

    Dessin d'un moteur d'avion détaillé avec les différents parties du projet Quantum

    Le moteur de rendu WebRender est connu pour être extrêmement rapide. Cependant, l'objectif de WebRender n'est pas vraiment de faire en sorte que le rendu soit plus rapide, mais plutôt qu'il soit plus fluide.

    Avec WebRender, nous voulons que les applications tournent de façon fluide et lisse à 60 images par seconde ou plus (Frame Per Second : FPS) et ceci indépendamment de la taille de l'écran ou du nombre de changements sur la page d'une image à l'autre. Et ça fonctionne. Les pages qui se chargent péniblement à 15 FPS sur Chrome ou sur la version actuelle de Firefox tournent à 60 FPS avec WebRender.

    Comment WebRender y parvient-il ? Il change fondamentalement la manière dont le moteur de rendu fonctionne pour le rapprocher davantage d'un moteur de jeu 3D.

    Voyons ce que ça signifie. Mais d'abord…

    Que fait un moteur de rendu ?

    Dans l'article à propos de Stylo, j'ai expliqué le processus par lequel le navigateur passe du HTML et du CSS aux pixels à l'écran et comment la plupart des navigateurs le font en 5 étapes.

    On peut diviser ces 5 étapes en deux parties. Au cours de la première partie, on construit un plan. Pour créer ce plan, on combine le HTML et le CSS avec des informations comme la taille du cadre de rendu afin de savoir exactement ce à quoi chaque élément doit ressembler — sa largeur, sa hauteur, sa couleur, etc. Le résultat final est appelé un arbre d'image (frame tree) ou un arbre de rendu (render tree).

    La seconde partie — peindre et composer — est de la responsabilité du moteur de rendu. Il prend le plan de la première partie et le transforme en pixels à afficher à l'écran.

    Schéma séparant les 5 étapes d'un rendu en 2 groupes, avec un arbre de rendu à passer entre les 2 parties.

    Mais le navigateur ne doit pas seulement faire cela une fois par page. Il doit le refaire encore et encore pour la même page. A chaque fois que quelque chose change sur cette page — par exemple lorsqu'une div s'ouvre — le navigateur doit passer à nouveau par un grand nombre de ces étapes.

    Schéma montrant les étapes à refaire lors d'un clique: styliser, former, peindre et composer

    Même dans les cas où rien ne change vraiment sur la page — par exemple lorsque vous la faites défiler ou lorsque vous surlignez du texte — le navigateur doit quand même au moins repasser par la seconde partie pour dessiner les nouveaux pixels à l'écran.

    Schéma montrant les étapes à refaire lors d'un défilement: composer.

    Si vous voulez que les choses telles que le défilement ou les animations soient fluides, elles doivent se produire à 60 images par seconde.

    Vous avez peut-être déjà entendu cette expression — images par seconde (FPS ou IPS en français) — sans être sûr de ce que ça signifie. Je me le représente comme un livre animé. C'est comme un livre classique avec des images, mais quand vous faites défiler rapidement les pages avec votre pouce, vous verrez que les pages forment une scène animée.

    Pour que l'animation paraisse fluide, il vous faut 60 pages pour chaque seconde d'animation.

    Photo d'un livre animé avec une scène animée fluide à côté.

    Les pages de ce livre animé sont faites avec un papier quadrillé. Il y a de très très nombreux petits carrés, et chacun de ces carrés ne peut contenir qu'une seule couleur.

    Le rôle du moteur de rendu est de remplir les cases du papier quadrillé. Une fois que toutes les cases ont été remplies, le rendu de l'image est terminé.

    Évidemment, il n'y a pas de papier à petit carreaux dans votre ordinateur. Par contre, il y existe une partie de la mémoire de l'ordinateur appelée le frame buffer. Chaque adresse mémoire dans le frame buffer est comme une case du papier quadrillé… elle correspond à un pixel à l'écran. Le navigateur remplit chaque emplacement avec les valeurs RVBA (rouge, vert, bleu et alpha) qui correspondent à la couleur attendue.

    Un ensemble d'adresses mémoires avec des valeurs RVBA associées aux carés d'une grille (pixels)

    Quand l'écran a besoin de s'actualiser, il se réfère à cette partie de la mémoire.

    La plupart des écrans s'actualisent 60 fois par seconde. C'est pour ça que les navigateurs essayent d'assurer le rendu des pages à 60 images par seconde. Ainsi, le navigateur dispose de 16,67 millisecondes pour tout préparer — appliquer les styles CSS, positionner les éléments, peindre — et remplir toutes les cases du frame buffer avec les couleurs des pixels. Cette durée entre deux images (16,67 ms) est appelée le frame budget (budget de l'image).

    Parfois vous entendez des personnes parler de dropped frame (trame perdue). Ce phénomène se produit quand le système n'a pas terminé son travail dans le frame budget imparti. L'écran essaye de récupérer la nouvelle image du frame buffer avant que le navigateur ait fini de tout remplir. Dans ce cas, l'écran affiche l'ancienne version de l'image à nouveau.

    Un dropped frame c'est un peu comme si vous arrachiez une page du livre animé. Cela donnerait l'impression que l'animation bégaye ou saute parce que la transition entre la page précédente et la suivante manque.

    Picture of a flipbook missing a page with a janky animation next to it

    Donc nous voulons être surs de disposer de tous ces pixels dans le frame buffer avant que l'écran ne vienne récupérer la nouvelle image. Regardons comment, historiquement, les navigateurs faisaient cela et comment ça a changé au cours du temps. Puis nous verrons comment rendre cela plus rapide.

    Une brève histoire du coloriage et de la composition

    Note: le coloriage et la composition sont les tâches qui différencient le plus les moteurs de rendu de chaque navigateur. Les navigateurs développés pour une seule plateforme (comme Edge et Safari) fonctionnent un peu différemment des navigateurs multiplateformes (comme Firefox et Chrome).

    Les premiers navigateurs comportaient déjà des optimisations permettant d'obtenir un rendu des pages plus rapide. Par exemple, si vous étiez en train de faire défiler le contenu, le navigateur gardait la partie encore visible et la déplaçait. Ensuite, il coloriait les nouveaux pixels dans l'espace blanc restant.

    Ce processus qui consiste à identifier ce qui a changé pour modifier seulement ces éléments ou pixels est appelé invalidation.

    Au cours du temps, les navigateurs ont commencé à appliquer de plus en plus de techniques d’invalidation, comme le rectangle d'invalidation. Avec le rectangle d'invalidation, vous identifiez la plus petite partie rectangulaire autour de chaque partie de l'écran qui a changé. Puis, vous redessinez seulement ce qui se trouve à l'intérieur de ces rectangles.

    Ça réduit fortement la charge de travail lorsqu'il y a peu de changements sur la page… par exemple, lorsque vous avez un simple curseur clignotant.

    Curseur clignotant avec un petit rectangle repeint autour de lui

    Mais ça n'est pas d'une grande aide lorsque de grandes parties de la page doivent être modifiées. Donc les navigateurs ont imaginé de nouvelles techniques pour traiter ces cas.

    Introduction aux calques et à la composition

    Utiliser des calques peut être utile lorsque de grandes parties de la page changent… du moins, dans certains cas.

    Les calques des navigateurs ressemblent beaucoup aux calques de Photoshop, ou aux papiers calques utilisés dans l'animation traditionnelle à la main (la technique est nommée onion skinning car ces papiers ressemblent à des pelures d'ognons par leur couleur et leur transparence). En gros, vous dessinez différents éléments de la page sur différents calques. Puis vous placez ces calques les uns au-dessus des autres.

    Les navigateurs utilisent des calques depuis déjà longtemps, mais ils n'ont pas toujours été utilisés à des fins d'accélération. Au départ, ils permettaient seulement de s'assurer que le rendu était correct. Ils intervenaient dans le cadre des contextes d'empilement (stacking contexts).

    Par exemple, si une page comportait un élément partiellement transparent, il était placé dans son propre contexte d'empilement. Cela signifie qu'il disposait de son propre calque pour pouvoir mélanger sa couleur avec la couleur en dessous. Ces calques étaient jetés dès que l'image était prête. À la prochaine image, tous les calques étaient dessinés à nouveau.

    Calques pour l'opacité crées, puis images rendues et enfin tout est jeté

    Mais souvent, les objets de ces calques ne changeaient pas d'une image à l'autre. Par exemple, pensez à une animation traditionnelle. L'arrière-plan ne change pas, même si les personnages bougent au premier plan. Il est bien plus efficace de garder le calque d'arrière-plan à portée de main et de le réutiliser au moment voulu.

    Les navigateurs se sont donc mis à conserver les calques. Ils n'avaient plus qu'à redessiner les calques qui changeaient ensuite. Et dans certaines situations, les calques ne changeaient même pas. Il fallait juste les réorganiser — par exemple, quand une animation bougeait sur l'écran ou que quelque chose défilait.

    Deux calques bougent l'un relativement à l'autre comme une boite de défilement est défilée.

    Le processus consistant à réarranger les calques est appelé composition. Le compositeur part de ceci :

    • des images (bitmaps) sources : l'arrière-plan (avec un rectangle vide à l'emplacement où le contenu défilant devra apparaitre) et le contenu défilant lui-même ;
    • une image de destination, qui sera affichée à l'écran.

    D'abord, le compositeur copie l'arrière-plan dans l'image de destination.

    Ensuite, il identifie quelle partie du contenu défilant doit être affichée. Il copie cette partie dans l'image de destination.

    Source bitmaps on the left, destination bitmap on the right

    Ce procédé décharge le thread principal d'un certain nombre de dessins. Mais il passe encore beaucoup de temps à la composition. Et beaucoup de choses se disputent le temps du thread principal.

    J'ai déjà parlé de cela : le thread principal est comme un développeur full-stack. Il est en charge du DOM, de l'agencement et du JavaScript. Et il était aussi en charge du coloriage et de la composition.

    Thread principal faisant du DOM, JS, agencement, coloriage et de la composition

    Chaque milliseconde que le thread principal passe au coloriage et à la composition est du temps qu'il ne peut pas dédier au JavaScript ou à l'agencement de la page.

    CPU travaillant sur le coloriage et pensant "Je devrais vraiment me mettre à ce JavaScript bientot

    Mais un autre composant matériel de l'ordinateur passait beaucoup de temps inactif et ce composant a été précisément conçu pour gérer les graphismes. C'est le GPU, que les jeux vidéo utilisent depuis les années 90 pour assurer un rendu rapide des images. Et depuis, les GPU sont devenus de plus en plus gros et de plus en plus puissants.

    Schéma d'un chipset d'ordinateur avec 4 coeurs CPU et un GPU.

    La composition accélérée par les GPU

    Donc les développeurs de navigateurs ont commencé à migrer certaines tâches vers le GPU.

    Il y a deux tâches qui peuvent potentiellement migrer vers le GPU :

    1. Colorier les calques
    2. Composer les calques ensemble

    Il est parfois difficile de migrer le coloriage sur le GPU. Donc dans la majeure partie des cas, les navigateurs multiplateformes ont conservé le coloriage sur le CPU.

    Mais la composition est quelque chose que les GPU peuvent faire très rapidement, et c'était facile de la basculer vers le GPU.

    Thread principal faisant passer les calques au GPU

    Certains navigateurs ont poussé ce parallélisme encore plus loin en ajoutant un thread de composition sur le CPU. Il est devenu le gestionnaire du travail de composition qui a lieu sur le GPU. Cela signifie que si le thread principal est occupé (par exemple à exécuter du JavaScript), le thread de composition peut quand même s'occuper des actions déclenchées par l'utilisateur, comme par exemple faire défiler le contenu de la page.

    Thread de composition placé entre le thread principal et le GPU, il est en train de passer les calques au GPU.

    Cette stratégie déplace donc tout le travail de composition en dehors du thread principal. Mais elle impose encore beaucoup de travail au thread principal. Chaque fois qu'un calque doit être recolorié, le thread principal doit s'en charger, avant de transférer le calque au GPU.

    Certains navigateurs ont déplacé le coloriage sur un autre thread (et nous sommes en train de travailler là-dessus actuellement dans Firefox). Mais il est encore plus rapide de déplacer cette dernière petite tâche — le coloriage — dans le GPU.

    Le coloriage accéléré par les GPU

    Donc les navigateurs ont également commencé à déplacer le coloriage sur le GPU.

    Coloriage et composition gérés par le GPU

    Les navigateurs sont encore en train d'accomplir ce basculement. Certains navigateurs colorient sur le GPU systématiquement, quand d'autres ne le font que sur certaines plateformes (par exemple, uniquement sur Windows, ou uniquement sur les appareils mobiles).

    Le coloriage sur le GPU apporte plusieurs avantages. Il libère le CPU pour qu'il puisse utiliser son temps à autre chose comme exécuter le JavaScript et réaliser l'agencement. En outre, les GPU sont bien plus rapides que les CPU pour dessiner des pixels, donc ils accélèrent aussi le coloriage. Cela entraine aussi moins de données à copier du CPU au GPU.

    Mais, le fait de maintenir une séparation entre le coloriage et la composition présente encore un cout, même lorsqu'ils sont tous les deux exécutés sur le GPU. Cette séparation limite aussi le type d'optimisations envisageables pour rendre le travail du GPU encore plus rapide.

    C'est ici que WebRender entre en scène. Il change fondamentalement la manière dont nous effectuons le rendu, en supprimant la séparation entre le coloriage et la composition. Il nous offre la possibilité d'adapter les performances de notre moteur de rendu afin de vous proposer la meilleure expérience utilisateur du web actuel et afin de mieux gérer les cas d'utilisations du web de demain.

    Cela signifie que nous ne voulons pas simplement assurer un rendu plus rapide des trames… nous visons également un rendu plus régulier et sans défauts. Et même lorsqu'il y a beaucoup de pixels à dessiner, comme c'est le cas pour les écrans 4K ou les casques de réalité virtuel WebVR, nous voulons que l'expérience reste toujours aussi fluide.

    À quel moment les navigateurs actuels deviennent-ils médiocres ?

    Les optimisations ci-dessus permettent déjà d’accélérer le rendu des pages dans certains cas. Lorsque peu de choses changent sur une page — par exemple, lorsqu'il n'y a qu'un simple curseur clignotant — le navigateur va pouvoir se concentrer sur ce qui est strictement nécessaire.

    Curseur clignotant avec un petit rectangle recolorié autour de lui.

    En divisant les pages en calques, on a augmenté le nombre de scénarios parfaits. Si vous pouvez dessiner un nombre limité de calque et vous contenter de les déplacer les uns par rapport aux autres, alors l'architecture coloriage-composition fonctionne bien.

    L'aiguille d'une horloge est traitée comme un calque au-dessus du reste.

    Mais l'utilisation des calques a aussi un cout. Ils occupent beaucoup de mémoire et peuvent même ralentir les choses. Les navigateurs doivent combiner les calques lorsque cela a du sens… mais il est compliqué de déterminer quand cela a du sens.

    Cela signifie que s'il y a beaucoup de choses différentes qui bougent sur la page, vous pouvez vous retrouver avec beaucoup trop de calques. Ces calques remplissent la mémoire et mettent trop de temps à être transférés au compositeur.

    Many layers on top of each other

    Inversement, il arrive de se retrouver avec un seul calque alors qu'il aurait été plus efficace d'en utiliser plusieurs. Ce calque unique va être constamment re-dessiné et transféré au compositeur, qui va alors lancer la composition sans rien changer.

    Cela signifie que vous doublez le nombre de coloriages en repassant sur chaque pixel deux fois sans jamais en tirer de bénéfice. Il aurait été plus rapide d'effectuer le rendu directement, sans passer par la phase de composition.

    Paint and composite producing the same bitmap

    Et il y a de nombreux cas où les calques n'aident pas vraiment. Par exemple, si vous animez la couleur d'arrière-plan, de toutes façons, la totalité du calque doit être recoloriée. Ces calques ne sont utiles que pour un nombre restreint de propriétés CSS.

    Même si la plupart de vos trames sont des scénarios parfaits — c'est à dire qu'elles consomment un minimum de frame budget — vous pouvez quand même vous retrouver avec une animation chaotique. Pour arriver à des défauts perceptibles, il suffit de quelques trames qui tombent dans les pires scénarios.

    Lige du temps des frame avec quelques frames dépassant leur frame buget, causant des imperfections.

    Ces scénarios sont appelés falaises de performance. Votre application semble se dérouler correctement jusqu'à ce qu'elle se heurte à ces pires scénarios (comme animer la couleur d'arrière-plan) et tout à coup votre taux de trames s'effondre depuis le bord de la falaise.

    Person falling over the edge of a cliff labeled animating background color

    Mais nous pouvons nous débarrasser de ces falaises de performance.

    Comment faisons-nous cela ? Nous suivons la voie des moteurs de rendu 3D des jeux vidéo.

    Utilisation du GPU comme un moteur de jeu vidéo

    Et si on arrêtait d'essayer de deviner de quel calque nous avons besoin ? Et si on supprimait les frontières entre le coloriage et la composition et que l'on revenait au coloriage de chaque pixel à chaque image ?

    Cette idée peut sembler ridicule, mais en fait, ce n'est pas la première fois qu'elle est considérée. Les jeux vidéo modernes repeignent chaque pixel et ils soutiennent 60 images par seconde avec plus de fiabilité que les navigateurs web. Ils le font d'une façon surprenante… au lieu de créer ces rectangles d'invalidation et ces calques pour minimiser ce qui doit être colorié, ils colorient simplement la totalité de l'écran.

    Ce mode de rendu ne serait-il pas beaucoup plus lent ?

    Si on coloriait avec le CPU, ça le serait. Mais les GPU sont conçus pour ça.

    Les GPU sont conçu pour l’extrême parallélisation. J'ai parlé de parallélisme dans mon dernier article sur Stylo. Avec le parallélisme, la machine peut faire plusieurs choses à la fois. Le nombre de choses qu'elle peut faire en même temps est limité par le nombre de cœurs qu'elle possède.

    Les CPU disposent habituellement de 2 à 8 cœurs. Pour les GPU, on parle d'au minimum une petite centaine de cœurs et souvent de plus de 1 000 cœurs.

    Cependant, ces cœurs fonctionnent un peu différemment. Ils ne peuvent pas travailler complètement indépendamment comme c'est le cas pour les cœurs de CPU. Au lieu de cela, ils travaillent ensemble sur la même tâche, en exécutant la même instruction sur des données différentes.

    Des coeurs CPU travaillant indépendemment, des coeurs GPU travaillant ensemble.

    C'est exactement ce dont vous avez besoin lorsque vous remplissez des pixels. Chaque pixel peut être rempli par un cœur différent. Et comme le travail peut être effectué sur des centaines de pixels en même temps, le GPU est bien plus rapide pour remplir les pixels que le CPU… mais seulement si vous vous assurez que tous ces cœurs ont du travail à faire.

    Comme les cœurs doivent travailler sur les mêmes choses en même temps, les GPU suivent une liste d'étapes plutôt rigide et leurs API sont assez contraintes. Jetons un œil à leur fonctionnement.

    Premièrement, vous devez dire au GPU ce qui doit être dessiné : quelles formes doivent être tracées et comment les remplir.

    Pour cela, vous divisez votre dessin en formes simples (en général des triangles). Ces formes sont placées dans un espace en 3D, donc certaines formes peuvent apparaitre derrière d'autres formes. Puis vous prenez les coins de ces triangles et vous placez les coordonnées x, y, z dans un tableau.

    Graphe en 3D repreésentant un triange avec une matrice de coordonnées sur le coté

    Puis vous lancez une demande de dessin — vous dites au GPU de dessiner ces formes.

    CPU en train de passer les coordonées d'un triangle au GPU.

    A partir de là, le GPU prend le relais. Tous les cœurs vont travailler sur la même chose au même moment. Ils vont :

    1. Identifier l'emplacement des coins de ces formes. Ça s'appelle le vertex shading (ombrage de sommet). Coeurs GPU dessinant les sommets sur un graphique.
    2. Identifier les lignes de jonction de ces coins. A partir de ce moment, vous pouvez déterminer quels pixels sont couverts par la forme. Ça s'appelle la rastérisation ou matricialisation. Coeurs GPU dessinant les lignes entre les coins
    3. Maintenant que l'on sait quels pixels sont couverts par une forme, on parcourt chaque pixel de la forme et on identifie la couleur qu'il doit afficher. On appelle cela le pixel shading. Coeurs GPU remplissant les pixels

    Cette dernière étape peut être réalisée de différentes manières. Pour dire au GPU comment il doit s'y prendre, vous lui donnez un programme appelé pixel shader. Le pixel shading est une des seules parties du GPU que vous pouvez programmer.

    Certains pixel shaders sont simples. Par exemple, si vous dessinez une forme d'une seule couleur, alors votre pixel shader a juste besoin de retourner cette couleur pour chaque pixel de la forme.

    D'autres fois, c'est plus compliqué, comme lorsque vous utilisez une image de fond. Vous devez identifier quelle partie de l'image correspond à chaque pixel. Vous pouvez faire cela de la même manière qu'un artiste agrandit ou rétrécit une image… posez une grille correspondant à chaque pixel au-dessus de l'image. Puis, lorsque vous savez quelle case correspond à quel pixel, prenez des échantillons des couleurs à l'intérieur de la case et déterminez la couleur à retenir pour le pixel cible. On appelle cette technique le texture mapping parce qu'elle établit une correspondance entre l'image (appelée texture) et les pixels.

    Image haute-résolution reliée à un espace avec une résolution beaucoup plus basse.

    Le GPU va appeler votre programme de pixel shader pour chaque pixel. Différents cœurs vont travailler sur différents pixels au même moment et en parallèle, mais ils doivent tous utiliser le même programme de pixel shader. Lorsque vous demandez au GPU de dessiner vos formes, vous lui dites quel pixel shader utiliser.

    Pour la plupart des pages web, différentes parties de la page vont nécessiter différents shader pixel.

    Et comme le shader s'applique à toutes les formes avec lesquelles vous l'appelez, vous avez souvent besoin de diviser vos requêtes de dessin en plusieurs groupes. On appelle cela des batches (lots). Pour utiliser au maximum les cœurs disponibles, il vaut mieux créer un minimum de batches avec beaucoup de formes à l'intérieur.

    CPU faisant passer au GPU une boite contenant beaucoup de coordonées et un pixel shader.

    C'est donc comme cela que le GPU divise le travail entre des centaines ou des milliers de cœurs. Et c'est seulement grâce à cette extrême parallélisation que l'on peut envisager un rendu complet à chaque image. Cependant, même avec le parallélisme extrême, cela reste un gros travail. Vous devez encore le faire de manière intelligente. Et c'est là que WebRender entre en scène…

    Comment WebRender fonctionne avec le GPU

    Revenons en arrière pour examiner les étapes par lesquelles le navigateur passe pour réaliser le rendu des pages. Deux choses vont changer ici.

    Schéma montrant les étapes du pipeline de rendu avec deux changements. Le frame tree est mintenantune liste d'affichage et le coloriage et la composition ont été combinée dans le Render.

    1. Il n'y a plus de séparation entre le coloriage et la composition… ils font tous deux partie de la même étape. Le GPU les effectue en même temps en s'appuyant sur les commandes qui lui sont envoyées et qui utilisent l'API graphique.
    2. L'agencement nous donne maintenant une structure différente pour le rendu. Avant, c'était ce que l'on appelait l'arbre d'image ou "frame tree" (ou arbre de rendu, render tree, dans Chrome). Maintenant, il passe une liste d'affichage.

    La liste d'affichage est un ensemble d’instructions de dessin de haut niveau. Elle nous indique ce que nous devons dessiner sans être spécifique à une API graphique.

    Lorsqu'il y a quelque chose de nouveau à dessiner, le thread principal donne la liste d'affichage au RenderBackend, qui est le code de WebRender qui tourne sur le CPU.

    Le travail du RenderBackend consiste à prendre cette liste de fonctions de dessin de haut niveau et à les convertir en fonctions d'appel de dessin dont le GPU a besoin. Ces fonctions sont regroupées par lots (batches) de façon à les exécuter plus rapidement.

    Schéma des 4 threads, avec le thread RenderBacked placé entre le thread principal et celui de composition. Le RenderBackend traduit la liste d'affichage en appels de dessin groupés en lot.

    Puis le RenderBackend va passer ces batches au thread de composition qui va les passer au GPU.

    Le RenderBackend cherche à rendre les directives de dessin qu'il envoie au GPU aussi rapide que possible à exécuter. Pour cela, il utilise quelques techniques.

    Supprimer les formes inutiles de la liste (Early culling ou "élagage précoce")

    La meilleure manière de gagner du temps est de ne pas avoir à travailler du tout.

    Premièrement, le RenderBackend réduit la liste des éléments à afficher. Il identifie quels éléments d'affichage vont apparaitre à l'écran. Pour cela, il regarde certaines choses comme jusqu'où descend le défilement de chaque boite de défilement.

    Si au moins une partie de la forme est dans la boite, alors elle est incluse. En revanche, si aucune partie de la forme ne doit être affichée sur la page, elle est supprimée. Ce processus est appelé early culling (élagage précoce).

    Une fenêtre de navigation avec quelques parties en dehors de l'écran. Juste à côté, la liste d'affichage avec les éléments en dehors supprimés.

    Minimiser le nombre de textures intermédiaires (L'arbre de rendu de tâche)

    Maintenant nous disposons d'un arbre qui contient seulement les formes que nous allons utiliser. Cet arbre est organisé selon les contextes d'empilement dont nous avons parlé précédemment.

    Les effets, comme les filtres CSS et les contextes d'empilements, rendent les choses un peu compliquées. Par exemple, disons qu'un élément a une opacité de 0,5 et qu'il a des enfants. Vous pourriez penser que chaque enfant est transparent… mais c'est en fait le groupe entier qui est transparent.

    Trois boites se chevauchant qui sont translucides, affichées alors de manière distincte et à côté d'une forme translucide crées par les trois boites où les boites ne se distinguent plus.

    A cause de cela, vous devez commencer par faire le rendu du groupe dans une texture avec chaque enfant complètement opaque. Puis, lorsque vous la placez dans son élément parent, vous pouvez changer l'opacité de toute la texture.

    Ces contextes d'empilement peuvent être imbriqués… ce parent peut faire partie d'un autre contexte d'empilement. Ce qui signifie qu'il doit être rendu dans une autre texture intermédiaire et ainsi de suite.

    Créer l'espace pour ces textures coute cher. Nous voulons les grouper autant que possible dans la même texture intermédiaire.

    Pour aider le GPU, nous créons un arbre de tâches de rendu. Avec lui, on sait quelles textures doivent être créées avant quelles autres. Chaque texture qui ne dépend pas d'une autre peut être créée au premier passage, ce qui signifie qu'elles peuvent être regroupées dans la même texture intermédiaire.

    Donc dans l'exemple ci-dessus, on devrait commencer par une passe pour afficher le coin de l'une des ombres de boites. (C'est légèrement plus compliqué que ça, mais c'est l'essentiel.)

    Une arbre à 3 niveaux avec une racine suivie d'un enfant contenant l'opacité qui contient lui-même les trois enfants des boites ombrées. À côté de ça, un objectif de rendu avec le coin de l'ombre d'une boite.

    Dans la seconde passe, on peut répliquer ce coin tout autour de la boite pour placer l'ombre de boite sur les boites. Puis on peut effectuer le rendu du groupe avec l'opacité maximale.

    Le même arbre à trois niveau avec un objectif de rendu avec la forme crées à partir des 3 boites et une opacité maximale.

    Puis, tout ce qu'il reste à faire est de changer l'opacité de cette texture et de la placer à l'endroit où elle doit aller dans la texture finale qui doit être affichée à l'écran.

    Le même arbre avec l'objectif de destination montrant la forme à 3 boites avec l'opacité réduite.

    En construisant cet arbre de tâches de rendu, nous identifions le nombre minimum de rendus-cible hors-écran que nous pouvons utiliser. C'est bien parce que, comme mentionné précédemment, réserver de l'espace pour ces rendus de texture cible est couteux.

    Ça aide aussi à regrouper les choses par lots (batches).

    Regrouper les appels (Batching)

    Comme nous l'évoquions plus tôt, nous devons créer un petit nombre de batches qui contiennent beaucoup de formes.

    En faisant attention à la manière dont on créé ces batches, on peut vraiment accélérer les choses. Il est souhaitable de placer le plus possible de formes dans un batch et ceci pour deux raisons.

    Premièrement, lorsque le CPU dit au GPU d'effectuer un dessin, le CPU doit faire beaucoup de travail. Il doit faire des choses comme : préparer le GPU, envoyer le shader et vérifier différents bogues matériels. Tout cela s'ajoute au reste et pendant que le CPU fait ce travail, le GPU peut être inactif.

    Deuxièmement, il y a un cout à changer d'état. Admettons que vous deviez changer de shader entre deux lots. Sur un GPU classique, vous devez attendre jusqu'à ce que tous les cœurs aient fini de traiter le shader en cours. On appelle cela purger le pipeline (draining the pipeline). En attendant que le pipeline soit purgé, les autres cœurs vont rester inactifs.

    Plusieurs coeurs GPU attendant pendant qu'un termine le travail avec le pixel shader précédent.

    Pour cette raison, il convient de grouper le plus possible. Pour un PC de bureau classique, on vise 100 requêtes de dessin ou moins par image avec de préférence des centaines de sommets par requête. De cette manière, vous tirerez le meilleur parti du parallélisme.

    On se penche sur chaque passe de l'arbre de tâche de rendu et on identifie ce qu'on peut regrouper en un seul lot.

    Actuellement, chaque type de primitive requiert un shader différent. Par exemple, il y a un shader de bordure, un shader de texte, un shader d'image.

    Boites désignées avec le type de batch qu'elles contiennent (par exemple, Bordures, Images, Rectangles).

    On pense que l'on peut combiner un grand nombre de ces shaders, ce qui nous permet d'avoir des lots encore plus importants, mais c'est déjà très bien groupé.

    Nous sommes presque prêts à envoyer cela au GPU. Mais il reste un tout petit peu de travail que nous pouvons éliminer.

    Réduction des pixels shading avec des passes d'opacité et de transparence (Z-culling)

    La plupart des pages web sont composées de nombreuses formes qui se chevauchent. Par exemple, un champ de texte est placé au-dessus d'une div (avec un arrière-plan) elle-même placée au-dessus du body de la page (avec un autre arrière-plan).

    Quand il identifie la couleur d'un pixel, le GPU peut identifier la couleur du pixel dans chaque forme. Mais seul le calque supérieur va finir par être affiché. On appelle cela le sur-coloriage et cela gaspille du temps de GPU.

    3 layers on top of each other with a single overlapping pixel called out across all three layers

    Une solution à cela serait d'effectuer le rendu de la forme du dessus en premier. Pour la forme suivante, lorsque vous arrivez au même pixel, vérifiez s'il dispose déjà d'une valeur. Si c'est le cas, vous pouvez éviter ce travail.

    3 layers where the overlapping pixel isn't filled in on the 2 bottom layers

    Cependant, cela créé un petit problème supplémentaire. Lorsqu'une forme est translucide, vous devez mélanger les couleurs des deux formes. Et pour que cela paraisse correct, il faut le faire de l'arrière vers l'avant.

    Donc nous divisons le travail en deux passes. La première est la passe opaque. On va de l'avant vers l'arrière et on réalise le rendu de toutes les formes opaques. On saute chaque pixel caché derrière un autre.

    Puis on s'occupe des formes translucides. Celles-ci sont rendues de l'arrière vers l'avant. Si un pixel translucide se retrouve au-dessus d'un pixel opaque, il est mélangé au pixel opaque. S'il est caché derrière un pixel opaque, il n'est pas calculé.

    Ce processus de séparation du travail entre les passes transparentes et opaques et puis consistant à sauter les calculs de pixels inutiles est appelé Z-culling.

    Même si cela ressemble à une simple optimisation, il a apporté de grosses améliorations dans notre cas. Sur une page standard, cela réduit fortement le nombre de pixels sur lesquels vous devez travailler, et nous sommes actuellement en train de chercher d'autres moyens pour transférer plus de travail à la passe opaque.

    A ce stade nous avons préparé l'image. Nous avons fait du mieux que nous le pouvions pour nous épargner du travail.

    … Et nous sommes prêts à dessiner !

    Nous sommes prêts à préparer le GPU et lancer le rendu de nos lots.

    Diagram of the 4 threads with compositor thread passing off opaque pass and alpha pass to GPU

    Attention : tout n'est pas encore sur le GPU

    Le CPU a toujours du travail de coloriage à faire. Par exemple, il continue d'assurer le rendu des caractères (appelés glyphes) qui sont utilisés dans les blocs de texte. Il est possible de le faire sur le GPU, mais cela reste difficile d'obtenir un rendu pixel à pixel équivalent à celui des glyphes que l'on obtient avec d'autres applications sur la même machine. Donc les utilisateurs pourraient trouver cela désorientant de voir des polices de caractères rendues par GPU. Nous menons des expérimentations afin de passer des choses comme les glyphes au GPU avec le projet Pathfinder.

    Pour l'instant, toutes ces choses sont coloriées en bitmaps par le CPU. Puis elles sont transférées dans ce qu'on appelle le cache de textures sur le GPU. Ce cache est conservé d'une image à l'autre parce que souvent ces choses ne changent pas.

    Et même si ce travail de coloriage reste sur le CPU, on peut quand même le rendre plus rapide qu'à l'heure actuelle. Par exemple, lorsqu'on peint les caractères d'une police, on répartit les caractères entre les différents cœurs. On fait cela en utilisant les mêmes techniques que Stylo utilise pour paralléliser le traitement des styles… le vol de travail.

    Quel futur pour WebRender ?

    Nous avons hâte d'intégrer WebRender à Firefox dans le cadre de Quantum Render en 2018, quelques versions après la sortie initiale de Firefox Quantum. Cela rendra les pages actuelles plus fluides. Cela va aussi préparer Firefox pour la nouvelle vague de haute résolution 4K, parce que les performances de rendu deviennent encore plus critiques lorsque vous augmentez le nombre de pixel à l'écran.

    Mais WebRender n'est pas seulement utile à Firefox. Il est aussi capital pour le travail que nous réalisons sur WebVR, où nous devons réussir le rendu d'une image différente pour chaque œil à 90 FPS et à une résolution de 4K.

    Une première version (ndt: très early) de WebRender est actuellement accessible sur Firefox via deux flags : gfx.webrender.enabled et gfx.webrendest.enabled. Le travail d'intégration est toujours en cours, donc les performances ne sont pas encore au niveau de ce qu'elles seront quand tout sera terminé. Si vous voulez vous tenir informés des développements sur WebRender, vous pouvez suivre le dépôt GitHub, ou suivre Firefox Nightly sur Twitter pour des nouvelles hebdomadaires sur la totalité du projet Quantum Render.

    Lire les commentaires

  • Quad9, résolveur DNS public, et sécurisé par TLS (Journaux LinuxFR)

    Le résolveur DNS Quad9 (prononcer « quoi de neuf » en français) a été annoncé aujourd'hui. C'est un résolveur DNS public, mais dont l'originalité est d'être accessible de manière sécurisée, avec TLS (DNS sur TLS est décrit dans le RFC 7858).

    Alors, l·e·a lect·eur·rice de LinuxFr.org, étant super au courant, va dire « mais des résolveurs DNS publics, il y en a plein ! Pourquoi un de plus ? ». Le plus connu est Google Public DNS mais il en existe beaucoup d'autres, avec des politiques et des caractéristiques techniques diverses. Notamment, tous (à l'exception de Cisco OpenDNS) sont non sécurisés : le lien entre vous et le résolveur est en clair, tout le monde peut écouter, et il n'est pas authentifié, donc vous croyez parler à Google Public DNS mais en fait vous parlez au tricheur que votre FAI a annoncé dans ses réseaux locaux.

    Et Quad9, c'est mieux, alors ? D'abord, c'est géré par l'organisme sans but lucratif bien connu PCH, qui gère une bonne partie de l'infrastructure du DNS (et qui sont des copains, oui, je suis subjectif),

    Quad9, lui, sécurise par TLS (RFC 7858). Cela permet d'éviter l'écoute par un tiers, et cela permet d'authentifier le résolveur (mais attention je n'ai pas encore testé ce point, Quad9 ne semble pas distribuer de manière authentifiée ses clés publiques).

    Question politique, des points à noter :

    • Quad9 s'engage à ne pas stocker votre adresse IP,
    • leur résolveur est un résolveur menteur : il ne répond pas (délibérement) pour les noms de domaines considérant comme lié à des activités néfastes comme la distribution de logiciel malveillant.

    L'adresse IPv4 de Quad9, comme son nom l'indique, est 9.9.9.9. Son adresse IPv6 est 2620:fe::fe. D'abord, un accès classique en UDP en clair, sur votre Linux favorite :

    % dig +nodnssec @9.9.9.9 AAAA irtf.org   
    
    ; <<>> DiG 9.10.3-P4-Ubuntu <<>> +nodnssec @9.9.9.9 AAAA irtf.org
    ; (1 server found)
    ;; global options: +cmd
    ;; Got answer:
    ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 11544
    ;; flags: qr rd ra ad; QUERY: 1, ANSWER: 1, AUTHORITY: 0, ADDITIONAL: 1
    
    ;; OPT PSEUDOSECTION:
    ; EDNS: version: 0, flags:; udp: 4096
    ;; QUESTION SECTION:
    ;irtf.org.      IN AAAA
    
    ;; ANSWER SECTION:
    irtf.org.       1325 IN AAAA 2001:1900:3001:11::2c
    
    ;; Query time: 4 msec
    ;; SERVER: 9.9.9.9#53(9.9.9.9)
    ;; WHEN: Thu Nov 16 09:49:41 +08 2017
    ;; MSG SIZE  rcvd: 65
    

    On y voit que Quad9 valide avec DNSSEC (la réponse a bien le bit AD - Authentic Data).

    Maintenant, testons la nouveauté importante de ce service, DNS sur TLS. C'est du TLS donc on peut y aller avec openssl :

    % openssl s_client -connect \[2620:fe::fe\]:853 -showcerts
    

    On voit que Quad9 répond bien en TLS, et a un certificat Let's Encrypt.

    Testons ensuite avec un client DNS, le programme getdns_query distribué avec getdns (l'option -l L lui dit d'utiliser DNS sur TLS) :

    % getdns_query @9.9.9.9 -s -l L www.afnic.fr AAAA
    {
      "answer_type": GETDNS_NAMETYPE_DNS,
      "canonical_name": <bindata for lb01-1.nic.fr.>,
      "just_address_answers":
      [
        {
          "address_data": <bindata for 2001:67c:2218:30::24>,
          "address_type": <bindata of "IPv6">
        }
     ...
    

    On peut utiliser tshark pour vérifier qu'on est bien en TLS :

    % tshark -n -i eth0  -d tcp.port==853,ssl host 9.9.9.9 
    

    Le -d tcp.port==853,ssl était là pour dire à tshark d'interpréter ce qui passe sur le port 853 (celui de DNS-sur-TLS) comme étant du TLS. On voit bien le dialogue TLS mais évidemment pas les questions et réponses DNS puique tout est chiffré.

    Bien, maintenant que les tests se passent bien, comment utiliser Quad9 pour la vraie résolution de noms ? On va utiliser stubby pour parler à Quad9. Le fichier de configuration Stubby sera du genre:

    [En fait, je ne peux pas le mettre, LinuxFr interprète son contenu et f…e en l'air tout le maraquage. Il va falloir que vous me croyiez sur parole.]

    On indique à stubby d'écouter sur l'adresse locale ::1, port 8053, et de faire suivre les requêtes en DNS sur TLS à 9.9.9.9 ou 2620:fe::fe. On lance stubby :

    % stubby   
    

    Et on peut le tester, en utilisant dig pour interroger à l'adresse et au port indiqué :

    [Idem, quelque chose dans le résultat de dig ne plait pas à LinuxFr]

    Et on peut vérifier avec tshark que Stubby parle bien avec Quad9, et en utilisant TLS.

    Stubby a l'avantage de bien gérer TCP, notamment en réutilisant les connexions (il serait très coûteux d'établir une connexion TCP pour chaque requête DNS, surtout avec TLS par dessus). Mais il n'a pas de cache des réponses, ce qui peut être ennuyeux si on est loin de Quad9. Pour cela, le plus simple est d'ajouter un vrai résolveur, ici Unbound. On le configure ainsi :

    [Configuration Unbound supprimée pour les mêmes raisons.]

    Avec cette configuration, Unbound va écouter sur l'adresse 127.0.0.1 (sur le port par défaut, 53, le port du DNS) et relayer les requêtes pour lesquelles il n'a pas déjà une réponse dans son cache vers Stubby (::1, port 8053). Interrogeons Unbound :

    [Et encore un dig supprimé]

    Unbound a une mémoire (le cache) donc si on recommance la requête aussitôt, la réponse arrivera bien plus vite et on verra le TTL diminué.

    Pour en savoir plus :
    - le site de référence
    - leur politique de vie privée
    - la FAQ
    - l'excellente bibliothèque getdns, le must pour faire du DNS en C
    - stubby
    - et toujours dans la série « les copains et les copines », le projet DNS privacy.

    Lire les commentaires

  • Le Firefox nouveau est arrivé ! (Journaux LinuxFR)

    Ca y est, Firefox 57 est sorti le 14 Novembre, avec lui le nouveau moteur de rendu Quantum. Je ne vais pas m'étendre sur ce dernier, il y a une superbe dépêche en cours de rédaction qui traitera le sujet mieux que moi.

    Dans tous les cas, j'étais curieux de le tester et de le comparer à son grand rival Chromium, la mouture libre de Chrome.

    J'ai quitté Firefox il y a des années après avoir constaté à quel point il devenait pataud, au profit de Chromium et l'annonce de Quantum me faisait de l'oeil. Avant de faire quelques petits speedtests (qui vaudront ce qu'ils vaudront), je commence par la conclusion : j'ai de nouveau adopté Firefox !

    D'abord, en terme d'impression personnelle : il est vraiment réactif, le Firefox mou du genou que je connaissais est loin derrière. Il a fallut que je me refasse à l'interface, qui a pas mal évoluée depuis que je l'ai quitté mais elle se rapproche de plus en plus de celle de Chromium donc pour le coup, c'était chose aisée. J'ai vraiment l'impression qu'il affiche tout plus vite que Chromium et je n'ai pas encore rencontré de ralentissement. Sur Chromium, j'avais parfois un petit freeze aléatoire, de quelques secondes, quand je regardais des vidéos en HTML5, pourtant ma config' est quand même relativement "costaud", je n'ai pas encore rencontré ce problème sur Firefox et c'est agréable.

    Quelques petits speedtests :
    A savoir qu'ils ont tous été réalisé dans des conditions "idéalles" et similaires : uniquement le navigateur lancé et un seul onglet ouvert.

    Premier test réalisé sur : http://speed-battle.com/

    SPEED-BATTLE measures online the speed of JavaScript in your browser and shows a comparison to previous visitors.
    Questions, SPEED-BATTLE can give answers to:
    Which browser is on my computer fastest in completing the SPEED-BATTLE test tasks?
    Which operating system is faster when using the same computer and browser version?
    Which computer is faster when using the same operating system and browser?
    Test results depend on different parameters (like CPU, browser, plugins/addons, operating system, system memory, number and kind of processes running in parallel and many more). The test will give you a reference value for the performance of your soft- and hardware. For consistent results run it when all other activity of your computer is low.
    SPEED-BATTLE is quick, for free and does not require any download or installation.

    Plus grand est le score, mieux c'est.

    Chromium :

    Chromium

    Firefox :

    Titre de l'image

    Second test réalisé sur : http://peacekeeper.futuremark.com/
    Pour le coup lui il test énormément de choses (rendu, vidéos HTML5 sous divers formats, les opérations dans le DOM…), si vous êtes anglophone je vous invite à lire leur FAQ qui vous donnera tous les détails. Plus grand est le scord, mieux c'est.

    Chromium :
    Titre de l'image

    Firefox :
    Titre de l'image

    Troisième et dernier test réalisé sur : http://browserbench.org/JetStream/

    JetStream is a JavaScript benchmark suite focused on the most advanced web applications. For more information, read the in-depth analysis. Bigger scores are better.

    Chromium :
    Titre de l'image

    Firefox :
    Titre de l'image

    Globalement, les deux premiers speedtests confirment mon impression de réactivité tandis que le dernier semble être plus mitigé mais les valeurs extrêmes ont étés plus élevées sur Firefox. Il faudrait dans tous les cas plusieurs itérations afin d'obtenir un résultat à peu près fiable.

    Je redonne sa chance au panda roux, on revient toujours à son premier amour  ;).

    Et vous ? Vous l'avez essayé ? Quelles sont vos impressions ?

    Lire les commentaires

  • Adaptation d'outils d'éducation à l'environnement en numérique. (Journaux LinuxFR)

    Je remets ici le message que j'ai innocemment posté au début dans Forum général.petites annonces ("recherche programmeur")… et qui, grâce aux conseils éclairés de contributeurs m'amène à débuter un journal.

    Salut. Je me demandais, comme ça, si il y avait dans les parages quelqu'un ayant des compétences en programmation qui serait tenté par l'aventure d'une adaptation de jeux de société éducatifs (éducation à l'environnement) en appli ou sur ordi. Les jeux en question ont été développés par ma compagne et moi et testés sur de vrais enfants (aucun enfant n'a été blessé ou maltraité pour les besoins des tests) Le truc c'est que le jeu sur plateau comme ressource éducative c'est plus trop à la mode alors on aimerait bien les dépoussiérer un peu. Bien sûr je n'ai pas une thune à mettre dans le projet (mais j'ai quelques compétences pour aller chercher des financements), et pour couronner le tout j'aimerai bien faire ça en open source. Des preneurs?
    Ah oui, je suis vers Saint-Brieuc (Côtes d'Armor)

    De la discussion avec ces contributeurs je tire deux conclusions:
    -D'abord qu'il faudrait que je publie ici le contenu préexistant en BY SA. Problème: sur l'un des jeux qui avait été conçu en forme "physique" (carton, papier…), certaines images utilisées sont propriétaires. Et oui, à l'époque il n'était pas question de le diffuser mais de l'utiliser dans un cercle restreint, en classe avec des enfants. Donc pour pouvoir le mettre ici, il faut que je "libère" le contenu des éléments non-libres. Un peu de boulot de recherche et d'illustration.
    -Ensuite, tant qu'à rebosser dessus, autant en profiter pour faire un test et apprendre des choses. Donc je me dis que je pourrais tenter seul une adaptation avec un framework: c'est Vassal qui m'a été conseillé.
    Du coup, objectifs pour la prochaine entrée du journal:
    -publier les contenus relatif aux jeux qui peuvent être publiés en BY-SA (règle du jeux, matériel sans les images)
    -retour d'expérience sur ma tentative de prise en main de Vassal

    Là, je précise que je suis un noob complet en matière de programmation, même avec un framework. D'ailleurs je suis même assez peu familier du monde du libre et de la culture libriste (même si mon intérêt et ma curiosité m'ont poussé à me renseigner un peu) Du coup, veuillez m'excuser par avance si je ne maitrise pas tous les "codes" de communication en vigueur, et n'hésitez pas à m'expliquer.

    Lire les commentaires

  • Le cauchemar d'Henry (Journaux LinuxFR)

    Henry, notre ami, est de retour pour vous conter les plus rocambolesques de ses aventu… de ses belles… de ses humiliations. Pour rappel, la dernière en date, la vie privée d'Henry, qui avait ravi tant de membres de LinuxFr.

    Le journal dont vous êtes l'anti-héros! Hop, on y va…

    La nuit dernière, Henry a fait un affreux cauchemar…

    Il arrivait au camping de Trougon, où l'employée de l'accueil lui faisait un grand sourire. Une fois dans son bungalow, il peut apprécier le grand lit, la petite terrasse, au sud, et la cuisine largement équipée. De passage, plus tard, à la supérette du camping, il peut constater, non sans un sentiment de plénitude, que son jus de pommes préféré est en rayonnage, de même que du jambon fermier et de bonnes baguettes. Du premier coup, il parvient à retourner à son bungalow, il faut dire que le chemin est drôlement bien indiqué.

    Le soir, au restaurant, la pizza du chef lui donne satisfaction, de même que la part de tarte tatin et le petit vin de la région. Et le tout pour €15! Cerise sur le gâteau: les toilettes sont propres et la porte ferme efficacement.

    La fin de soirée, Henry la passe sur sa terrasse, avec Evelyne et Rolande, qui habitent 2 bungalows plus loin. Bien que Evelyne lui plaise plus, c'est Rolande qui semble plus sensible à son charme ténébreux. "Bah, se dit-il, laissons faire le destin." Bien que les deux femmes repartent dormir chez elles, c'est clair qu'Henry a marqué des points. Vivement demain!

    La nuit, parfaite, pas de bruit, ni dedans ni dehors. Pas de ventilation, pas de voisins bruyants, pas de route proche, pas de chasse d'eau qui fuit. À la supérette au matin, Henry croise à nouveau le dame de l'accueil qui lui fait la bise tout en mettant sa main sur son épaule. Si ça c'est pas le bonheur!

    Il gagne une bouteille de vinaigre à la tombola de la caisse du petit magasin; Cécile, la dame de l'accueil l'invite pour lui montrer la région "un de ces jours", la plage est propre, le vendeur de glaces sympa et la noix de coco pas trop chère.

    Lorsque soudain, Henry se rend compte, avec effroi, que ça fait plus de 24 heures qu'il n'a pas allumé son téléphone, que sa tablette est encore dans sa valise et qu'il ne sait même pas si le camping propose du WiFi : rien de tout cela ne lui a manqué, horreur!!

    À la place d'Henry, que ferais-tu alors?

    Lire les commentaires

  • Eben Moglen vs FSF !? (Journaux LinuxFR)

    Bonjour les amis,

    au détour de mes flux RSS, je suis tombé sur un post de Matthew Garrett.

    Il déclare que Eben Moglen à l'origine des licences GPL ne peu plus être considéré comme un ami de la communauté du logiciel libre et de la Free Software Foundation.

    Fin Octobre 2016, Eben Moglen a démissionné (été forcé à démissionner ?) de son rôle d'avocat conseil auprès de la FSF.

    Les différentes dépêches (y compris l'annonce de la FSF) ne mentionnent aucun conflit entre les 2 parties et la position de Matthew tranche vraiment avec celles-ci…

    Qu'en pensez-vous ?

    Lire les commentaires

  • YDFS 2.6 : Créez votre propre distribution ! (Dépêches LinuxFR)

    Pourquoi vouloir créer sa distribution ?

    Il peut y avoir plusieurs intérêts à créer sa propre distribution :

    • pour l'adapter à ses besoins ;
    • pour comprendre et maîtriser totalement sa distribution ;
    • pour des raisons de sécurité et éviter les portes dérobées ;
    • dans un but pédagogique, enseignement de l'informatique ou auto-formation.

    Il y a plusieurs moyens de créer sa distribution, le plus connu est sans doute « Linux From Scratch », YDFS (Your Distro From Scratch) est une autre option que nous allons découvrir dans sa nouvelle version.

    Pour vous aider, le Capitole du Libre, organise un atelier YDFS le 18 novembre 2017.

    YDFS (Your Distro From Scratch) est indépendant de LFS, les options de compilation étant plutôt héritées de Arch Linux. C'est un ensemble de scripts Bash, créés pour faire le build de LinuxConsole (mais configurable pour créer une distribution personnalisée).

    Il est possible de choisir les bibliothèques/logiciels prêts à l'emploi (en mode liveCD/LiveUSB/Installé sur disque dur), ainsi que des logiciels tiers (que l'on peut installer via un gestionnaire de paquets).

    Il est aussi assez simple de configurer un mode de démarrage particulier (les scripts d'init étant légers).

    Your Distro From scratch 2.6

    Retour sur YDFS 2.5

    http://linuxfr.org/news/yourdistrofromscratch

    Cette version a permis de réaliser le build de LinuxConsole 2.5, on peut maintenant dire que c'est une version stable, car il n'y a pas de eu problèmes constatés depuis la sortie de celle-ci, juste des demandes d'ajout (langues/logiciels)

    Nouveautés de la version 2.6

    Attention, tout n'est pas encore finalisé, cela devrait être terminé pour début décembre. Elle est toutefois publiée maintenant en raison de l'atelier proposé lors du Capitole du Libre.

    Eudev

    Udev 165 était présent dans la version 2.5.
    Cette version étant trop ancienne pour fonctionner avec la dernière version de MATE Desktop, c'est eudev qui a été choisi pour le remplacer.

    Systemd n'est donc toujours pas utilisé, l'init étant réalisé par busybox. Cela pour des raisons purement pratiques : la distribution cible devant pouvoir démarrer depuis un liveCD, liveUSB, ou une partition Windows, busybox a été préféré car plus léger.

    Il est à noter que tout fonctionne parfaitement, sans que Systemd ne soit le tout premier processus lancé (PID 1).

    Flatpak

    La nouveauté principale c'est l'ajout de "Flatpak".
    Le temps de build, patch et test des nombreux paquets (opkg) est conséquent, et l'utilisation de ce type d'installeur permet de profiter d'une logithèque intéressante.

    Mises à jour

    Les autres changements sont mineurs :

    • Qt4 et GTK+ 2 ont définitivement été enlevés (qt5 et Gtk+ 3 sont disponibles nativement) ;
    • La cible 32 bits est allégée (cette architecture est de moins en moins utilisée) ;
    • MATE Desktop 1.18 pour les versions x86 et x86_64 ;
    • Simple Desktop Display Manager remplace lxdm.

    Et bien sûr, la plupart des bibliothèques sont disponibles dans leur dernière version "Stable".
    Le noyau testé par défaut est le 4.9.61 pour le cible x86_64, et le 4.1.46 pour la cible x86.

    Atelier YDFS au Capitole du Libre

    Nous vous proposons un atelier "YDFS" pendant le Capitole du Libre 2017.
    Celui-ci aura lieu le samedi 18 novembre, de 14 à 16h.

    Au programme :

    • Choix de la cible (PC 32/PC 64/Raspberry)
    • Choix du noyau
    • Configuration du noyau
    • Choix des logiciels à utiliser - pouvoir installer des logiciels tiers/ des paquets d'autres distributions
    • Build de LinuxConsole 2018 alpha

    Lire les commentaires

  • Vers des serveurs libres, ouverts et sécurisés : NERF (2) (Journaux LinuxFR)

    Bonsoir à tous,

    Le projet NERF (Non Extensible Reduced Firmware) progresse à grand pas. Nous l'avons présenté avec succès lors de la dernière linuxcon de Prague et vous pouvez trouver la video du talk de Ron ici ( https://www.youtube.com/watch?v=iffTJ1vPCSo ). La video est en anglais c'est normal Ron est américain, on se connait depuis une vingtaine d'années quand il a créée linuxbios à Los Alamos, mon pseudo ne vous dira rien mais dans le talk je suis Jean-Marie Verdun.

    Pour rappel les objectifs de NERF sont de supprimer les trous de sécurités induits par l'introduction de ME et UEFI dans les machines Intel, mais aussi d'ouvrir la voie à des machines les plus ouvertes possibles. Pour se faire nous désactivons la partie ME (remote management IPMI) et remplaçons le code UEFI par un kernel linux qui est directement présent sur le chip des cartes mères.

    J'ai fait il y a quelques temps un journal sur cette approche à une époque où nous en étions au stade de preuve conceptuelle. Depuis nous avons rebooté avec succès un serveur Open Compute plus de 10 000 fois sans aucun plantage ni ralentissement (ce qui n'a jamais été possible avec un BIOS UEFI) et nous travaillons au support de grub directement dans NERF avec pour objectif de booter une distro standard d'ici la fin du mois de décembre (encore une fois c'est un objectif).

    Il reste encore pas mal de travail à accomplir, mais nous sommes de plus en plus optimiste quand à notre capacité à atteindre notre objectif qui est de commercialiser des serveurs à base de BIOS NERF et de supprimer UEFI/ME des machines. J'espère qu'on y arrivera en début 2018. Un des objectifs des fondateurs du projet avec cette technologie en dehors de tout ce que vous pourrez lire sur internet suite à ce talk est de pouvoir éteindre et rallumer de manière prédictible des serveurs à grande échelle et d'induire ainsi une reduction drastique de la consommation d'énergie des datacenters. (on boote linux en moins de 20s actuellement depuis un power on. On a pour objectif de descendre ce temps sous les 5s)

    Aussi fou que cela puisse paraitre, il nous reste beaucoup de chose à définir et notamment la partie interface utilisateur, en tant qu'administrateur système comment envisageriez vous un BIOS qui fonctionne sur la base d'un kernel linux ? Quelles commandes vous semblent les plus importantes avant d'exécuter un kexec ? Comment géreriez vous un système sans interface IPMI ? (c'est faisable en y réflechissant un peu)

    A ce jour nous faisons des choses basiques, mais suffisantes, on boot un kernel linux, qui démarre une interface réseau, attrape une adresse IP sur un serveur dhcp et fait un wget en https sur un serveur remote pour executer un kexec d'un kernel de distro standard et monter le systeme de fichier associé. C'est suffisant pour nos cas d'usage probablement pas pour les votres et c'est la dessus dont on a besoin de vos inputs, alors pour une fois n'hésitez pas à me troller je suis sure que la plupart de vos idées seront bonnes. Typiquement on ne regarde pas la MBR des disques en attachement direct, c'est beaucoup trop "old school" et on peut faire bien mieux avec un noyau linux a la place du BIOS.

    Quoiqu'il en soit, j'espere que cette technologie trouvera un intérêt auprès de notre modeste communauté linux francaise, les personnes impliquées derrieres ont passe un grand nombres d'heures pour la faire fonctionner et les années d'experience acquises dans la gestion de systèmes hyperscales se retrouvent dans le résultat de ces travaux (Ron est le papa de coreboot).

    Pour ceux qui souhaitent tester NERF, nous allons mettre en ligne prochainement des serveurs qui fonctionneront à base de cette technologie chez Data4, un des rares hébergeurs francais qui a conçu des salles machines faites pour le free cooling et les équipements Open Compute / Open Power et qui a accepter de nous aider a mettre au point ces technologies en nous proposant des espaces à des tarifs corrects.

    Sinon nous pouvons vous vendre des kits de développements qui permettent de découvrir la technologie sur un serveur Open Compute utilisé pour le développement du projet. On en a disséminer un grand nombre dans la silicon vallée et j'ai toujours ce doux rève de penser qu'un jour la France pourra etre leader en infrastructure. (remarque: on peut l'etre sans NERF probablement)

    vejmarie

    ps: je suis de l'autre coté de l'atlantique, ne m'en voulez pas si je ne répond pas a vos commentaires "instantanement"

    Lire les commentaires

  • Parution de Fedora 27 (Dépêches LinuxFR)

    En ce mardi 14 novembre 2017, le projet Fedora est fier d’annoncer la sortie de la distribution GNU/Linux Fedora 27.

    Fedora est une distribution communautaire développée par le projet éponyme et sponsorisée par Red Hat, qui lui fournit des développeurs ainsi que des moyens financiers et logistiques. Fedora peut se voir comme une sorte de vitrine technologique pour le monde du logiciel libre, c’est pourquoi elle est prompte à inclure des nouveautés.

    GNOME nature

    Sommaire

    Environnement bureautique

    GNOME est toujours à l'honneur avec sa version 3.26. C'est une version essentiellement de polissage et de stabilité avec :

    • La barre principale qui devient transparente, si aucune fenêtre n'est maximisée ;
    • De nouvelles animations, plus fluides, en cas de redimensionnement ou de mouvement des fenêtres ;
    • La recherche globale fonctionne sur des actions du système (comme Éteindre) et affiche plus de résultats à la fois ;
    • Les paramètres du système bénéficient d'une refonte complète de l'interface ;
    • Le logiciel Disques peut enfin redimensionner les partitions, Agenda prenant en charge les évènements récurrents et Web acceptant la synchronisation depuis Firefox Sync ;
    • Le logiciel de virtualisation Machines peut télécharger et lancer automatiquement une RHEL gratuite ;
    • Amélioration des performances pour quelques applications ou GNOME en général.

    Remplacement de l'interface graphique de gestion de paquets Yumex par dnfdragora qui propose une interface Qt, GTK+ et ncurses. Le développement de Yumex s'est arrêté il y a un an, qui met fin à une application ayant accompli dix ans de bons et loyaux services et a même su migrer de yum vers dnf. dnfdragora présente la particularité de reposer sur rpmdragora, qui vient de Mageia.

    Dnf dragora

    Mise à jour de libpinyin vers la version 2.1 pour les entrées de saisie en chinois. Cette version consiste essentiellement dans la fusion avec la bibliothèque libzhuyin qu'il remplace. Cela apporte la prise en charge du chinois Zhuyin pour la saisie rapide dans cette langue.

    La mise à disposition des polices de caractères Serif pour le chinois par défaut. Jusqu'ici Fedora fournissait surtout des polices Sans pour le chinois. Mais depuis la libération de certaines polices de la part d'Adobe et de Google, il est dorénavant possible de fournir des polices de caractères Serif convenables pour ces utilisateurs nativement.

    Gestion du matériel

    Fedora propose une image unique pour l'architecture AARCH64 (ARM 64 bits) ce qui rejoint la solution proposée pour les cartes disposant d'un ARMv7. Pour l'instant cette image prendra en charge les cartes suivantes :

    • Pine64 (et ses variantes) ;
    • Raspberry Pi 3 (64 bit mode) ;
    • 96boards HiKey ;
    • 96boards Dragonboard 410c ;
    • ARM Juno.

    L'offre des cartes prises en charge s'étoffera dans le temps, de même que la mise à disposition des versions personnalisées de Fedora.

    Toujours à propos du matériel, Fedora a travaillé pour avoir une meilleure gestion des SoC Intel Bay Trail et Cherry Trail (essentiellement des puces Pentium, Celeron et Atom sur portables et tablettes). Le travail a consisté en l'amélioration de la surveillance de la batterie (consommation actuelle, temps restant sur batterie, savoir si la machine est en charge ou non) et de la gestion de l'audio. Les écrans tactiles et les accéléromètres seront également mieux détectés et donc exploitables par le système et les applications.

    Fedora 27 peut enfin tourner sur les ordinateurs ayant un UEFI 32 bits tout en ayant un CPU 64 bits. Cela consiste en l'installation d'un GRUB 32 bits (chargé par l'UEFI lui-même) qui lui-même charge un noyau et l'espace utilisateur en 64 bits. Cette configuration, assez atypique, a nécessité un travail sur GRUB, Anaconda et les utilitaires EFI pour les prendre en charge. Fedora sera ainsi installable sur ces configurations comme l'Asus Transformer T100TA, le HP Stream 7, le Dell Venue 8 Pro 5830 et les premiers Macintosh Intel d'Apple.

    Nouvelle interface des paramètres de GNOME

    Administration système

    Suppression du script 256term.sh (/etc/profile.d/256term.sh et /etc/profile.d/256term.csh) qui changeait la valeur de la variable $TERM pour activer les couleurs dans les terminaux selon le terminal employé. Maintenant ce sont les émulateurs de terminal qui s'en chargent directement, ce qui rend la procédure plus reproductible, plus simple et plus rapide, car le script n'est plus exécuté pour chaque nouveau shell.

    Activation de l'option TRIM pour les nouvelles partitions chiffrées avec LUKS1. L'option TRIM permet aux SSD de connaître les cellules mémoires utilisées par le système de fichier afin de pouvoir contrôler l'usure des cellules au mieux en conservant les performances en écriture dans le temps. Les SSD étant de plus en plus populaires, il a été décidé de rendre cela par défaut pour les partitions chiffrées, ce qui aurait un impact négligeable pour ceux qui utilisent un disque dur. Cela consiste à l'ajout natif de l'option discard dans /etc/crypttab. Le manque de place dans les métadonnées de LUKS1 explique pourquoi cela ne concerne que les nouvelles partitions.

    Nouveau système de cache par défaut pour les identifiants Kerberos nommé KCM. C'est le 4e système de cache à ce sujet, le premier était basé sur les fichiers, le second sur les répertoires et le 3e sur le porte-clé du noyau. Mais :

    • Celui basé sur les fichiers est certes largement pris en charge, mais il ne peut gérer plusieurs caches pour une même collection ;
    • Celui basé sur les répertoires corrige ce problème, mais cela nécessite son propre contrôle d'accès pour la gestion des répertoires ce qui est délicat ;
    • Le dernier utilisant le noyau, n'est pas adapté pour les environnements isolés (qui partagent le même noyau), ne bénéficiant pas des espaces de noms de l'utilisateur.

    L'architecture ici change énormément. Cela va reposer sur un principe client serveur où l'application qui utilise Kerberos comme kinit va communiquer avec un serveur KCM comme sssd. Jusqu'alors seul Heimdal Kerberos implémentait un serveur KCM. Heimdal et MIT ont implémenté un client KCM dans libkrb5. Fedora a proposé d'inclure un serveur KCM dans SSSD, plutôt qu'un démon isolé, pour bénéficier de l'API D-Bus qu'emploie SSSD afin que par exemple une application graphique puisse recevoir les notifications associées, la possibilité de sauvegarder des données secrètes facilement pour exploiter à nouveau le cache en cas de redémarrage et un accès facile à l'authentification de SSSD côté utilisateur, qui est également bien testé.

    libcurl réutilise OpenSSL pour la cryptographie et le protocole TLS au lieu de NSS. En effet, il y a 10 ans, c'était la décision inverse que le projet Fedora avait acté. L'objectif de ce revirement est de permettre la conception d'images de base de Fedora plus légères (dans le cadre des conteneurs entre autre). Cela facilite la possibilité d'enlever NSS dans ce genre de contexte nativement. Par contre l'inconvénient est que libcurl ne peut plus exploiter nativement les bases de données de certificats de NSS, dont ceux fournis avec Firefox. Un export est nécessaire pour cela.

    Le serveur OpenVPN utilise un nouvel algorithme de chiffrement par défaut qui est AES-256-GCM au lieu de BF-128-CBC améliorant la sécurité des connexions. En effet, il y a un an avec l'attaque SWEET32, il a été révélé que les blocs chiffrés d'une taille de 128 bits et inférieur sont vulnérables. La nouvelle politique passant par défaut à 256 bits, cela évite le problème. Le changement consiste dans la liste d'options par défaut du service openvpn qui était :

       ExecStart=/usr/sbin/openvpn --status %t/openvpn-server/status-%i.log --status-version 2 --suppress-timestamps --config %i.conf
    

    devenant

       ExecStart=/usr/sbin/openvpn --status %t/openvpn-server/status-%i.log --status-version 2 --suppress-timestamps --cipher AES-256-GCM --ncp-ciphers  AES-256-GCM:AES-256-CBC:AES-128-GCM:AES-128-CBC:BF-CBC --config %i.conf
    

    Comme vous le voyez, dans la nouvelle version, AES-256-GCM est employé par défaut mais en cas de clients non compatibles (version 2.3 et inférieur), il reste possible d'employer BF-128-CBC ou un autre algorithme compatible par une classique négociation au début de la connexion. Ainsi la compatibilité reste préservée au maximum, tout en améliorant la sécurité par défaut des clients le pouvant.

    Le serveur OpenSSH rejoint la politique centralisée des mots de passe, comme le client OpenSSH, GnuTLS, NSS, OpenSSL et OpenJDK avant lui. En effet, depuis quelques versions de Fedora, les utilitaires pouvant avoir une politique de mots de passe, par exemple de huit caractères avec au moins un chiffre et deux majuscules, bénéficient peu à peu de l’unification de cette politique. En définissant la politique une fois via l’utilitaire update-crypto-policies, elle sera disponible pour l’ensemble des applications compatibles.

    Suppression du protocole SSH-1 dans les clients OpenSSH. Ce protocole, de 20 ans d'âge, n'était plus sécurisé. Par ailleurs le projet OpenSSH va supprimer prochainement l'ensemble du code le concernant. Fedora ne le compilait plus dans le binaire standard depuis deux ans, mais le protocole subsistait dans le paquet de compatibilité openssh-clients-ssh1 qui sera supprimé. Cela améliorera la sécurité globale du système en réduisant la surface d'attaque disponible.

    Les paquets officiels ayant besoin de Java n'utiliseront plus la variable $PATH pour retrouver la JVM à employer mais directement la JVM fournie par défaut par Fedora (OpenJDK). La méthode employée nativement pour exécuter les applications Java jusqu'à Fedora 26 consistait en :

    • Lire le fichier /etc/java/java.conf ;
    • Si la variable d'environnement $JAVA_HOME existait, charger la JVM qu'elle pointait ;
    • Si cette même variable était définie dans le fichier de configuration, faire de même ;
    • Tenter de trouver via la variable $JVM_ROOT qui valait par défaut /usr/lib/jvm ;
    • En dernier recours, utiliser directement la variable $PATH.

    Cette méthode est plutôt complexe et risquée. Un utilisateur pour installer durablement une version alternative de la JVM devait être superutilisateur (pour agir sur l'avant-dernière étape) ou pouvait modifier deux variables d'environnements qui changeaient la JVM d'exécution de référence pour les applications fournies par Fedora. Applications qui ne sont peut-être pas compatibles avec la JVM réclamée par les applications de l'utilisateur.

    La méthode actuelle consiste en supprimer la dernière étape (pour les applications systèmes). L'utilisateur pourra jouer sur la variable $PATH pour spécifier la JVM de référence pour ses applications. L'administrateur système pourra toujours changer la JVM pour les applications systèmes via la variable $JAVA_HOME ou le fichier de configuration mentionné plus haut.

    Suppression des paquets krb5-appl-clients et krb5-appl-servers qui ne seront bientôt plus officiellement maintenus et ne sont plus assez sécurisés aujourd'hui. Pour la petite histoire, ces paquets n'ont plus été touchés depuis 2013 par le projet Fedora. Et ces paquets n'ont rien reçu de nouveau depuis 2010 par le projet d'origine.

    Ajout de Samba AD pour la gestion des Active Directory. Si FreeIPA et Samba traditionnel sont déjà employés pour déployer les contrôleurs de domaine, ils n'étaient pas capables de gérer les enregistrements et la gestion des clients Windows 8 et supérieur. Et jusqu'ici, il était impossible de compiler Samba AD avec MIT Kerberos (employé par Fedora, Debian et Ubuntu exploitant Heimdal Kerberos).

    Samba AD est une bonne alternative à l'implémentation de référence de Microsoft. Il serait capable de gérer des déploiements de centaines de milliers d'utilisateurs par groupe sur plusieurs sites. Et ce, avec un matériel considéré comme peu cher ce qui le rend intéressant pour les petites et moyennes structures. L’interopérabilité avec FreeIPA a été également améliorée ce qui permet aujourd'hui d'employer des environnements entièrement sous Fedora dans ce cadre.

    Mise à jour de RPM à la version 4.14. Au menu de ce composant central, des erreurs plus lisibles et pertinentes, une meilleure fiabilité en désactivant les signaux durant une opération d'écriture, ou avec une fonction de rappel plus sûre si la base de données principale est ouverte. La compatibilité avec les compilations reproductibles est améliorée. Il peut également utiliser OpenSSL pour les opérations cryptographiques. Et l'écart entre le RPM officiel et celui de Fedora s'est également réduit.

    Nouvelle interface de recherche de GNOME

    Développement

    La bibliothèque standard Glibc progresse à la version 2.26. Cette version ajoute un cache par fil d'exécution pour malloc ce qui améliore significativement les performances des allocations et suppressions de petites zones de la mémoire. Comme souvent, elle bénéficie de la dernière norme UNICODE 10.0. Les architectures ia64, powerpc64le, x86-32, et x86-64 peuvent gérer des nombres flottants 128 bits via le type _Float128. Et enfin, le résolveur DNS détecte les changements du fichier /etc/resolv.conf automatiquement pour le recharger à la volée.

    La bibliothèque majeure du C++ Boost donne un coup de boost à la version 1.64. Elle ajoute une nouvelle bibliothèque process qui permet la création de processus enfants, de configurer leur flux d'entrées-sorties, de communiquer avec eux de manière synchrone et asynchrone et bien entendu d'attendre et de tuer ces processus. Un changement de l'API de la partie Context est à noter. Puis comme d'habitude de nombreuses corrections de bogues dans l'ensemble de la bibliothèque.

    Le serveur de rendu de JavaScript Node.js s'exécute à la version 8.6 LTS (au lieu de la branche 6.x). Cette nouvelle version majeure fournie async_hooks dans le module core. Elle ajoute expérimentalement une Node API pour garantir la compatibilité ascendante de l'ABI des modules natifs afin d’éviter leur recompilation à chaque changement de node.js. Le module interne expérimental pour gérer le protocole HTTP/2 a été ajouté. Le moteur JavaScript V8 a été mise à jour à la version 6.0, plus proche donc de la version disponible dans Google Chrome avec une amélioration des performances.

    La boîte à outils Web Ruby on Rails 5.1 est sur les rails. Parmi les changements annoncés, nous pouvons noter la possibilité d'utiliser NPM via Yarn pour résoudre les dépendances de JavaScript ce qui simplifie l'usage de bibliothèques telles que React ou VueJS. Il devient possible d'utiliser Webpack via le gem Webpacker afin d'assembler les différents éléments de votre application dans un seul fichier JavaScript automatiquement. La bibliothèque jQuery n'est plus une dépendance obligatoire. Il devient possible de facilement insérer des données secrètes dans un fichier chiffré prévu à cet effet, mécanisme inspiré du gem sekrets. Et bien d'autres changements.

    Le langage Go fonce à la version 1.9. Il devient possible de spécifier que deux types ont la même représentation via l'instruction type T1 = T2, où T1 est un alias de T2. L'instruction multiplication suivie d'une addition, qui est souvent optimisée par les processeurs modernes, supprime la nécessité de l'arrondi intermédiaire lors du calcul. Pour la réactiver, vous pouvez faire float64(x*y) + z ce qui dégrade bien sûr les performances. La compilation des différents paquets se fait maintenant en parallèle. Le code généré est également plus rapide maintenant, le ramasse-miette est également plus performant. Le paquet time prend en charge nativement le temps monotonique pour éviter les problèmes de saut du temps (à cause d'une synchronisation NTP par exemple). Enfin, ajout d'un nouveau paquet math/bits pour la manipulation des bits. Et d'autres corrections encore.

    Le langage Perl a été poli à la version 5.26. Pour des raisons de sécurité, le répertoire courant . est supprimé de la recherche des chemins @INC pour éviter de charger des modules provenant d'un répertoire non sûr. Perl gère maintenant l'UNICODE 9.0. Les sous-routines lexicales ne sont plus expérimentaux. Et d'autres changements plus mineurs ou de problèmes résolus.

    Installer le paquet perl installera l'ensemble des modules core du projet officiel. Ce comportement est plus conforme vis à vis des autres distributions et de ce qui est attendu par les développeurs de Perl. Pour les utilisateurs qui souhaitent un environnement Perl plus léger, comme proposé avant par Fedora, vous pouvez vous rabattre sur le paquet perl-interpreter qui nécessite moins de modules par défaut.

    La nouvelle version de la machine virtuelle OpenJDK danse la Java pour une 9e fois. Bien entendu après quelques années, Java se met à niveau avec l'inclusion d'UNICODE 8.0, le port vers l'architecture AARCH64, l'utilisation de GTK+3 pour les interfaces graphiques sous Linux et l'ajout d'un client HTTP2. Côté sécurité, Java supporte le protocole applicatif de négociation de TLS, et remplace la fonction de hashage SHA-1 par SHA-3. OpenJDK devient plus modulaire, les modules standards sont placés derrière le préfixe java., les autres derrière jdk.. Et bien entendu tous les changements apportés par le langage Java 9 lui-même.

    Make sudo pip safe again! qui propose enfin un meilleur nettoyage lors de la désinstallation d'un module installé via pip et une meilleure séparation entre les modules de Fedora et ceux des utilisateurs. En effet, jusqu'ici, les modules installés via sudo pip install allaient s'installer au même endroit que les modules installés via dnf ce qui induisait un conflit entre les deux mécanismes. Pour régler ce problème, les modules installés sans dnf sont installés dans le dossier /usr/local/lib/pythonX.Y/ ce qui est en plus conforme au standard Filesystem Hierarchy Standard.

    Il est possible d'installer les paquets de débogage (les debuginfo) 32 et 64 bits pour une même application en même temps. Typiquement, sous Fedora x86_64, il est possible d'installer des paquets en 32 ou 64 bits car il y a compatibilité ascendante de l'architecture. Dans certaines situations où les deux sont installés en parallèle, cas de nombreuses bibliothèques, il est possible de faire de même pour leurs informations de débogage. Cela simplifiera la tâche des développeurs et des testeurs pour identifier les problèmes des applications multi-architectures.

    Les paquets debuginfos sont scindés en debuginfos et debugsources. Le premier contient les binaires et autres bibliothèques avec les symboles de débogage tandis que les seconds contiennent uniquement le code source du paquet. Cela permet non seulement de ne télécharger et installer que le strict nécessaire au débogage (les sources ne sont pas toujours requise) et va dans le sens d'harmoniser les pratiques autours du format RPM avec d'autres distributions.

    La modularité

    Création et mise à jour des outils dans le cadre de la Factory 2.0 pour permettre le découplage entre la version d'un paquet, la version de rattachement dans Fedora et sa fin de vie. Le principal concerné est l'outil pkgdb, la pièce maîtresse de Fedora qui contient la liste des paquets, permet d'en créer un nouveau, d'en faire une revue, de lire leurs métadonnées, le lien avec les versions de Fedora et bien entendu les développeurs / empaqueteurs responsables de leur maintenance. Jusqu'ici, cet outil associait à chaque paquet une branche nommée par exemple f26 pour signifier qu'il est disponible dans Fedora 26 et dont la fin de vie de cette branche est la même que Fedora 26.

    Mais dans le cadre de la modularité, il est possible que plusieurs branches d'un paquet soient disponibles pour une même version de Fedora grâce aux différents modules. Donc l’outil a été profondément remanié pour permettre à un module de spécifier n'importe quelle branche d'un paquet et de définir sa propre date de fin de vie plutôt que celle d'une version de la distribution.

    Séparation du Base Runtime en Plateforme et Hôte, le premier prenant en charge l'espace utilisateur et la base du système quand le second s'occupe uniquement de la gestion du matériel. En somme, la seconde partie contient le noyau, le chargeur de démarrage, les firmwares et quelques pilotes. Dans le cadre de la modularité, le but de ce changement est de découpler la gestion du matériel du reste du système pour proposer des cycles de vie différents et autonomes. L'utilisateur pourra ainsi bénéficier de plus de souplesse, comme avoir la dernière version du support du matériel avec le reste de Fedora un peu plus ancien et inversement. À terme, on pourrait avoir une sorte de gestion de matériel fournie par Fedora 27 avec un espace utilisateur fourni par Fedora 28. Ou inversement selon le cas d'usage.

    L'édition Fedora Server reçoit les premiers travaux officiels pour gérer la modularité, alors qu'elle a été testée par l'édition spéciale Boltron lors de Fedora 26. L'objectif est de mettre en place la modularité dans une image officielle de Fedora et non annexe comme l'a été Boltron. Cela permettra aux administrateurs systèmes de prendre en main le projet de manière plus large pour bénéficier d'un maximum de retours. Il sera également possible de voir le comportement de la modularité durant le cycle de vie complet de Fedora 27.

    Comme pour Fedora 26, je vous invite à consulter la documentation de la modularité et leur chaine Youtube pour en apprendre plus à ce sujet. À cause de ce changement important, l'édition Server sera disponible un mois après les autres éditions.

    Fedora aime Python

    Le concept du Python Système est revisité et devient la Plateforme Python. L'objectif est de fournir un Python pour les applications systèmes de base comme dnf et rpm (dont le binaire devient /usr/libexec/platform-python) qui puisse différer de celui des autres applications (dont le binaire reste /usr/bin/python). En effet, dans le cadre de la modularité, l'objectif est de séparer la base du système avec le reste des applications afin d'autoriser une certaine souplesse à l'usage. Auparavant, toutes les applications devaient utiliser Python 3.6 par exemple et il était assez compliqué de faire autrement pour l'utilisateur. Avec cette séparation, les outils systèmes pourront rester à Python 3.6 quand les applications pourront bénéficier en simultanée de Python 3.7 ou 3.8 quand ils seront disponibles. Cela autorise également Fedora à embarquer qu'un sous-ensemble de Python pour ses propres applications afin d'alléger le système minimal pour les images destinées aux environnements Cloud.

    Autour de Fedora

    Comme annoncé, Fedora 27 n'a pas bénéficié et le projet Fedora n'utilisera plus de version Alpha durant son développement grâce à l'amélioration des outils et des procédures de qualité. L'objectif est d'améliorer la qualité de la branche de développement Rawhide de sorte à atteindre la qualité d'une Alpha en permanence. En procédant ainsi, le projet Fedora gagne du temps durant le processus et peut libérer les ressources mobilisées pour produire une Alpha à d'autres tâches. En effet, la sortie d'une version Alpha nécessite des ressources pour gérer le processus, geler le développement, identifier et corriger les bogues bloquants, communiquer autour de sa sortie, mettre à jour les sites web, construire des images spécifiques, les tester…

    L'utilitaire Bodhi, qui sert notamment au déploiement et aux retours des mises à jours RPM et des ISO de Fedora, peut prendre en charge les applications Flatpak, OStrees, les images Docker, etc. Cela va dans le sens d'améliorer la qualité des produits de Fedora. Il devient ainsi possible de noter la mise à jour de ces fichiers suivant si elle est bonne ou non (ce que l'on appelle le karma), de facilement remonter les problèmes vers le Bugzilla du projet, d'exécuter les tests automatisés ou encore d'envoyer des courriels aux listes de diffusion concernées.

    La communauté francophone

    L'association

    Logo de Borsalinux-fr

    Borsalinux-fr est l'association qui gère la promotion de Fedora dans l'espace francophone. Nous constatons depuis quelques années une baisse progressive des membres à jour de cotisation et de volontaires pour prendre en main les activités dévolues à l'association.

    Nous lançons donc un appel à nous rejoindre afin de nous aider.

    L'association est en effet propriétaire du site officiel de la communauté francophone de Fedora, organise des évènements promotionnels comme les Rencontres Fedora régulièrement et participe à l'ensemble des évènements majeurs concernant le libre à travers la France principalement.

    Si vous aimez Fedora, et que vous souhaitez que notre action perdure, vous pouvez :

    • Adhérer à l'association : les cotisations nous aident à produire des goodies, à nous déplacer pour les évènements, à payer le matériel ;
    • Participer sur le forum, les listes de diffusion, à la réfection de la documentation, représenter l'association sur différents évènements francophones ;
    • Concevoir des goodies ;
    • Organiser des évènements type Rencontres Fedora dans votre ville.

    Nous serions ravis de vous accueillir et de vous aider dans vos démarches. Toute contribution, même minime, est appréciée.

    Si vous souhaitez avoir un aperçu de notre activité, vous pouvez participer à nos réunions hebdomadaires chaque lundi soir à 20h30 (heure de Paris) sur IRC (canal #fedora-meeting-1 sur Freenode).

    La documentation

    Depuis juin 2017, un grand travail de nettoyage a été entrepris sur la documentation francophone de Fedora, pour rattraper les 5 années de retard accumulées sur le sujet.

    Le moindre que l'on puisse dire, c'est que le travail abattu est important : près d'une cinquantaine articles corrigés et remis au goût du jour.
    Un grand merci à Charles-Antoine Couret, Nicolas Berrehouc, Édouard Duliège et les autres contributeurs et relecteurs pour leurs contributions.

    L'équipe se réunit tous les lundis soir après 21h (heure de Paris) sur IRC (canal #fedora-doc-fr sur Freenode) pour faire progresser la documentation par un travail collaboratif. Le reste de la semaine cela se passe sur les listes de diffusion.

    Si vous avez des idées d'articles ou de corrections à effectuer, que vous avez une compétence technique à retransmettre, n'hésitez pas à participer.

    Lire les commentaires

  • Sauvegarde incrémentiel de container lxc sous proxmox (Journaux LinuxFR)

    Introduction

    Proxmox c'est bon, c'est libre et ça marche bien.
    Par contre il a une faiblesse, ce sont les sauvegardes.
    Ils vous pond un gros .lzo par sauvegarde, certes on dit dans l'espaces de sauvegarde combien nous voulons garder de sauvegardes, et
    il effacera les vielles sauvegardes.

    C'est suffisant pour des petits containers ou vm par exemple, mais pour un gros container ça ne va pas le faire.

    Ma solution

    Description de ma situation

    Pour faire simple prenons mon cas.

    J'ai une instance de proxmox qui tourne dans ma cave, dessus il n'y a que des containers lxc, j'ai quelques petits containers et un gros qui s'appelle NAS et qui fait dans les 300Go.

    Mais le problème c'est mon NAS. Dedans il y a toutes notre musique, toutes nos photos/vidéos, bref toute notre vie, qu'il faut bien sauvegarder.
    Par contre je me vois mal me prendre 300Go par nuit, ma machine de sauvegarde va vite être saturée.

    A côté du serveur il y a un petit serveur (un vieux microcube proserv d'hp), il a 4 disques de 2to en raid 5. Dessus tourne une debian qui offre un partage nfs
    au proxmox.
    J'ai également une instance de rsnapshot sur mon hp qui sauvagarde le contenu de mon container NAS.

    Cela fonctionne bien, mais je me suis dit si je pouvait prendre tous le container par passage de rsnaphot, histoire que si un jour le proxmox casse il n'y aurait plus qu'a recopier l’intégralité du contenus sur le nouveau proxmox (ça marche j'ai fait le test avec un container d'essai le week-end passé).

    Ce qui est cool c'est que avec rsnapshot on peut remplacer les sauvegardes de proxmox pour les containers (attention que ceux qui sont dans des rpool zfs ou dans des lv de lvm).

    Un bout de mon fichier de configuration

    Comme c'est plus facile avec un exemple, voici un bout de mon fichier de config qui permet de sauvegarder un container, au préalable il faut que la machine de sauvegarde puisse se connecter au proxmox en ssh avec identification par clé.

    Dans l'exemple notre container est le 202 et l'adresse du proxmox est 192.168.2.190
    Dans le fichier de configuration il vous faut passer ce argument sinon il risque d'être bizarre votre container avec le temps qui s'écoule.

    rsync_long_args --delete

    en ZFS

    La section pour la sauvegarde du container 202:

    #NAS
    backup_exec ssh root@192.168.2.190 "zfs snapshot rpool/data/subvol-202-disk-1@backup"
    backup  root@192.168.2.190://rpool/data/subvol-202-disk-1/.zfs/snapshot/backup/ nas-202/
    backup_exec ssh root@192.168.2.190 "zfs destroy rpool/data/subvol-202-disk-1@backup"

    C'est vraiment simple après il faut pas oublier de prendre les fichiers de configuration de votre container sur l'hyperviseur, mais à la limite vous en foutez vous recréer un container avec la même id et même capacité de disque et vous passer la commande rsync dans l'autre sens.

    Voilà vous avez des sauvegardes incrémental de vos containers et si vous avez un mysql dedans il devrait pas y avoir de problème vu que vous copiez un snapshot.

    en LVM

    Si vous avez vos containers dans des lv sous lvm ça marche aussi, voici un exemple que vous pouvez adapter à rsnapshot, je l'ai pas encore adapté mais j'ai testé les commandes à la main sur la grappe de proxmox de mon employeur.

    lvcreate -n backup-308 -l 10%ORIGIN -s /dev/pve/vm-308-disk-1
    mount /dev/pve/backup-308 /snapshots/308
    rsync ...
    umount /snapshots/308
    lvremove -f /dev/pve/backup-308

    Pour les VM ? Je n'ai pas encore penché la dessus, si quelqu'un à une idée.

    Lire les commentaires

  • Je suis hypermétrope (Journaux LinuxFR)

    Cher Nal,

    je profite de cet espace de liberté pour parler d'autre chose que d'informatique et j'espère que tu ne m'en tiendra pas rigueur.

    Parlons peu, parlons bien, c'est du haut de mes 38 ans que j'ai récemment découvert mon hypermétropie (et une très légère astigmatie), au détour d'une visite chez l'ophtalmo.

    Je n'ai, jusqu'alors, jamais porté de lunettes (si ce n'est celles de soleil et sans correction).

    Cette hypermétropie est relativement faible (+1.75 aux deux yeux), et l'astigmatie encore plus (0.25).

    L'ophtalmo a fait preuve de beaucoup de psychologie lors de cette annonce, en me balançant, dans le plus grand des calmes, "vous devez les porter tout le temps !".
    Pour quelqu'un comme moi qui n'en a jamais porté, c'est un peu abrupt, mais bon passons.

    A vrai dire pour l'heure, je m'en sers surtout pour travailler, mais l'âge aidant, je risque de ne plus pouvoir m'en séparer sauf pour la vision de loin.

    Parce que ma vision de loin est très bonne, de l'ordre de 12/10.
    Caractéristique des hypermétropies faibles, parait-il, et au vu de ce que j'ai lu ici ou là.

    Mais là encore, passé un certain âge, l'oeil n’accommodera plus, même pour la vision de loin.

    Alors, comme un peu tout le monde ici aurait fait, j'ai fait quelques recherches.
    Et aussi parce que l'idée de porter des lunettes en permanence m'incommode, j'ai doncn pensé à l'opération.

    Quand on consulte les sites web des centres proposant des opérations au laser, tout à l'air formidable !
    Pas cher, sans douleur, et avec des résultats incroyables !!

    De même que les témoignages sur youtube et ailleurs, par exemple.
    Surtout ceux en provenance de la chaine officielle, ou du site web d'un centre.

    Mais voilà, tout ça est trop poli pour être honnête.
    Et j'ai l'impression que les centres font du google bombing pour occulter les ratés et témoignages négatifs.

    Et comme dirait Martine, quand c'est flou, il y a un loup !

    Alors je suis donc à la recherche de témoignages auprès de vous, afin de savoir si vous vous êtes déjà fait opérer des yeux, et si oui avec quelle technique et pour quel défaut de vision ? Quels résultats ? Des régressions ?

    Je m'en remets à vous, d'avance merci

    Lire les commentaires

  • Revue de presse de l'April pour la semaine 45 de l'année 2017 (Dépêches LinuxFR)

    La revue de presse de l'April est régulièrement éditée par les membres de l'association. Elle couvre l'actualité de la presse en ligne, liée au logiciel libre. Il s'agit donc d'une sélection d'articles de presse et non de prises de position de l'association de promotion et de défense du logiciel libre.

    Sommaire

    [L'OBS] Contre Google, Amazon & Co: les 6 familles de résistants aux Gafam

    Par Dominique Nora, le dimanche 12 novembre 2017. Extrait:

    Hier héros positifs de l'innovation, les Gafam [Google, Apple, Facebook, Amazon ou Microsoft] sont-ils en train de devenir les nouveaux vilains du capitalisme mondialisé? Séduisants et gratuits, leurs services sont plébiscités par des milliards d'usagers. Pourtant, en Europe et aux Etats-Unis, les attaques pleuvent à présent sur Larry Page (Alphabet/Google), Jeff Bezos (Amazon), Mark Zuckerberg (Facebook/Instagram/Whatsapp), Tim Cook (Apple) et Satya Nadella (Microsoft).

    Lien vers l'article original: https://tempsreel.nouvelobs.com/economie/20171110.OBS7195/contre-google-amazon-co-les-6-familles-de-resistants-aux-gafam.html

    [Journal du Net] Comment les entreprises peuvent tirer parti du crowdsourcing

    Par Jordan Elle, le vendredi 10 novembre 2017. Extrait:

    Alors, qu'est-ce que le crowdsourcing au juste? Le crowdsourcing est l’externalisation d’une tâche à l'ensemble de la communauté des logiciels libres.

    Lien vers l'article original: http://www.journaldunet.com/web-tech/expert/67926/comment-les-entreprises-peuvent-tirer-parti-du-crowdsourcing.shtml

    [ZDNet France] Munich sur le point de repasser de Linux à Microsoft

    Par Thierry Noisette, le jeudi 9 novembre 2017. Extrait:

    Plus d'une décennie après son très remarqué passage au logiciel libre, la capitale de la Bavière est tout près de revenir à Microsoft. Un dernier vote, en principe acquis, a lieu le 23 novembre.

    Lien vers l'article original: http://www.zdnet.fr/blogs/l-esprit-libre/munich-sur-le-point-de-repasser-de-linux-a-microsoft-39859792.htm

    [Journal du Net] Plaidoyer pour une stratégie open source ciblée au sein de l’industrie des transports

    Par Claire Lepelletier, le mardi 7 novembre 2017. Extrait:

    Une stratégie open source ciblée crée les conditions d’un avantage concurrentiel décisif. Et ce, y compris pour les industriels des transports.

    Lien vers l'article original: http://www.journaldunet.com/solutions/expert/67911/plaidoyer-pour-une-strategie-open-source-ciblee-au-sein-de-l-industrie-des-transports.shtml

    [Numerama] Comment surveille-t-on et censure-t-on Internet?

    Par Victoria Castro, le lundi 6 novembre 2017. Extrait:

    Comment Internet est-il surveillé? Filtré? Censuré? Ou tout simplement, comment fonctionne-t-il, quand il fonctionne? Tentons de donner des réponses claires à ces questions complexes.

    Lien vers l'article original: http://www.numerama.com/tech/303113-comment-surveille-t-on-et-censure-t-on-internet.html

    Lire les commentaires

  • Créer un environnement de bureau à sa sauce: nouvel essai (Journaux LinuxFR)

    Sommaire

    Préambule

    Licence

    Licence CC-BY.

    «Historique»

    Il y a longtemps, j'ai voulu écrire une dépêche ici sur la création d'un «guide imparfait pour construire un environnement de bureau à sa sauce».
    J'avais voulu faire une dépêche, mais, je n'ai probablement pas ce qu'il faut pour diriger un travail collectif, alors je vais reprendre de zéro, mais je tiens malgré tout à remercier ceux qui ont essayé de m'aider et dont je me permets de jeter les efforts aux orties (alors que je ne fais au final sûrement pas aussi bien):

    • nyco,
    • oumph,
    • okram,
    • olivierweb,
    • palm123,
    • baud,
    • royalpanda,
    • syvolc,
    • fiuzzy,
    • anaseto,
    • ytterbium,
    • andrianarivony,
    • jcr83,
    • neox,
    • benoît,
    • oulala,
    • jarillon,
    • montaigne,
    • groumph,
    • err404,
    • fdf,
    • titiii,
    • lenod,
    • dareg--2,
    • leowzukw

    Je retente donc, en prenant en compte les leçons tirées:

    • ne pas tenter d'être exhaustif
    • partitionner
    • ne pas essayer de faire une dépêche quand on n'a aucune expérience d'édition
    • ne pas faire l'âne de buridan: se décider.

    En conséquence de ces points, de nombreux raccourcis seront pris, de fréquents partis pris commis, d'éventuels trolls appelés, et j'en oublie.
    Je préfère prévenir de suite, ce journal et ceux qui suivront éventuellement ne sont pas destinés à Madame Michu, mais plutôt aux jeunes individus d'une variété bien particulière de moules à barbe et de trolls velus.

    Introduction

    Compte tenu du fait que je compte plutôt faire une série qu'un article mono-bloc chaque «temps» sera l'occasion d'un article. Je pense que je consacrerai un préambule de chaque journal pour revenir sur les points des précédents, en fonction des commentaires. Une sorte de façon de patcher, quoi… À voir.

    Plan d'action

    Introduction

    Tout d'abord, l'introduction.
    Cet article, quoi.
    Vu que c'est chiant et creux, tant à écrire que probablement à lire, je vais aussi faire un rappel de ce que l'on appelle un environnement de bureau (par la suite de cet article et des suivants, abrégé DE, pour Desktop Environment, le terme anglois), et pourquoi on appelle ça comme ça. S'en suivront un certain nombre de questionnement pas nécessairement pertinents.

    Les fondations

    Dans un deuxième temps, je compte définir les composants de base qui vont servir de fondations au reste, et imposer les outils que j'utilise moi: vous voila averti, une bonne dose de subjectivité et de parti pris est à prévoir. Bien sûr, je serai heureux de lire les trolls moules intéressées au débat :]

    La base

    Viendra ensuite un article sur un choix, parmi tant d'autres, sur les outils de base d'un DE non orienté geek ou nerd, et comment intégrer ces outils de travail.
    Ce ne sera probablement pas très long, parce que pour être honnête, c'est plutôt une sélection parmi les outils que j'ai testés au fur et à mesure, souvent basée sur l'idée d'avoir un système avec le moins de paquets installés: soit je favorise Qt, soit je favorise Gtk, parfois des softs en Xlib ou en ncurses…
    J'émaillerai ce passage de commentaires de pourquoi j'ai préféré tel ou tel outil, pourquoi parfois je fais une entorse à ma règle de me baser sur un minimum de toolkits différents…

    La déco

    Le quatrième point sera plutôt orienté vers une sélection d'outils liés au confort: principalement les applications multimédia. Peut-être que cette partie sera fusionnée avec la précédente, je verrai en fonction de la taille.

    Le productif

    J'enchaînerai sur une partie plus technique, et qui est vraisemblablement la raison qui m'a fait adopter ce mode de travail.
    On y parlera d'outils de programmation, de comment on peut oser dire qu'un IDE c'est pour les gens incapables de structurer leurs projets, de la façon d'administrer un jeu restreint de machines, pas forcément de la façon la plus efficace (parce que je suis très mauvais en réseau et plus plus que bof en administration système: il ne sera pas compliqué de m'envoyer paître sur des erreurs de sécurité, même si j'essaierai de faire attention).

    la conclusion ?

    Éventuellement, je trouverai le matériel pour un autre journal, qui lui traitera d'éventuelles optimisations du système, d'opinion personnelles sur le futur de mon propre DE, des difficultés que j'ai parfois pu rencontrer avec les jeux vidéos ou certains softs récalcitrants, des outils qui se foutent royalement de noyer l'utilisateur dans leur chiée de fichiers de config mal placés, de l'éventualité de construire un méta-paquet qui installerait les outils ainsi que quelques scripts permettant de customiser tout ça de manière uniforme…
    À voir donc, il me faudrait déjà arriver jusque la :]

    Vous conviendrez que c'est une introduction plutôt longue, et plutôt inutile.
    J'enchaîne donc sur… la première partie, comme promis.

    Histoire des DE

    En version courte et biaisée:
    L'idée derrière les DE informatiques est de transposer les termes et les techniques de travail sur papier pré-«informatique grand -public» à l'informatique, de sorte à faciliter la transition entre l'espace de travail physique (accès aux données de manière visuelle, vocale et tactile (le métier de secrétaire à bien changé ;]), pertinent, mais limité en vitesse et en portée), et l'espace de travail virtuel (accès au données parfois lointaines de façon quasi-instantanée, tri ultra-rapide, mais absence de sensibilité, absence originelle de contrôle vocal, lui-même encore plutôt inefficace, accessibilité parfois douteuse?). C'est de la que nous viennent diverses adaptations de termes:

    • fichier,
    • dossier,
    • corbeille,
    • bureau (justement),
    • BSOD,
    • probablement d'autres que j'oublie ou ignore

    J'ai aussi envie de dire que c'est de cette dette technique que viens l'idée de se limiter à seul bureau, too much windows (la lumière naturelle ça abîme les écrans, bordel!) et du foutoir sur le bureau, justement.

    En version longue, je vous invite plutôt à lire les divers articles de wikipedia. Oui, je sais, c'est plus court comme explication, du coup, mais je ne suis pas une encyclopédie, moi: déjà, je pense avoir prouvé un certain nombre de partis pris, ce qui me semble contraire aux buts d'une… ben, encyclopédie.

    Bref.
    Nous, ou plutôt nos pères, voire grand-pères pour certains d'entre vous, avons transposé, avec plus ou moins de succès, le bureau papier vers le bureau numérique, avec le succès que l'on connaît aujourd'hui.

    Concrètement, des logiciels ont été écrits afin de gérer de manière (parfois semi-)graphique ces éléments, afin de permettre à l'utilisateur de gérer au mieux son espace de travail (workspace en anglais), les plus pauvres ne disposant pour tout espace de travail que d'un bureau unique, les plus débrouillards et organisés sachant en exploiter plusieurs (et parfois même le sol, vécu!).
    Ces logiciels sont habituellement appelés «gestionnaires de fenêtres» ( par la suite, j'utiliserais l'abréviation WM), mais en réalité, et les vrais barbus vous l'expliquerons peut-être mieux que moi, les WMs sont, en pratique, limités aux seules applications graphiques. Pour les irréductibles amoureux du terminal, il existe ce que l'on appelle des multiplexeurs de terminaux (tmux, screen), qui ont, au final, un rôle très proche, voire identique. Je préfère prévenir de suite, je ne connais les multiplexeurs de terminaux que de nom, mais à priori, ils sont de véritables gestionnaires de fenêtres pavant (je reviendrai sur le terme pavant plus tard), sauf que personne ne semble avoir fait de travail équivalent dessus à celui qui a été fait pour nos WM habituels.

    L'approche la plus connue, et en tout cas la première que j'aie connu, fut de mimer à l'identique les bureaux physiques, avec des documents de travail , ou fenêtres dans notre jargon, qui peuvent s'empiler, pour «ne pas perdre» l'utilisateur.
    Sauf que, tout le monde n'a pas considéré que c'était une bonne chose, et de la sont (peut-être) nées les deux familles de WM:

    • les WM en foutoir, forçant l'utilisateur à jongler avec des piles de papiers pour essayer d'accomplir sa corvée pile, qui nécessitent de gérer manuellement les fenêtres afin d'être «productif». Les utilisateurs de ces gestionnaires utilisent souvent de nombreux outils dédiés à leurs tâches quotidiennes, capables de gérer un grand nombre de tâches dans un seul logiciel, je vous laisse deviner pourquoi. Ces outils représentent l'immense majorité au doigt levé. Est-ce la résistance au changement? Je vous laisse seuls juges. J'hésite à les appeler FWM, pour Foutoir Window Manager (le terme anglais correspondant au F était tellement moins poétique…).

    • les WM pavant (ci-après abrégé TWM, pour Tiling Window Manager), dont le principe est de laisser la machine gérer un placement optimal des papiers fenêtres sur le bureau. Leur capacité fondamentale est l'utilisation optimale de l'espace de l'écran, souvent au détriment de l'esthétique mais pour divers gains d'efficacité non-négligeables.
      Ces gestionnaires se divisent à priori en 2 grandes familles:

      • les gestionnaires basés sur un nombre pré-défini de stratégies de placements: imposent un certain nombre de stratégies de placement, parmi lesquelles l'utilisateur doit choisir. Je vous avoue ne pas avoir été séduit par l'idée, mais avec le temps je pense que je devrais y réfléchir à nouveau. En conséquence, je n'ai pas trop d'exemples à donner: mes recherches à ce sujet sont trop anciennes.
      • les gestionnaires basés sur un placement semi-libre: laissent l'utilisateur composer sa stratégie au fil de ses besoins. Parmis ceux que j'ai testés figurent notamment ratpoison le tueur de souris, et i3, qui semble au final très populaire, son nom apparaissant majoritairement et avec une fréquence grandissante dans mes lectures (ça sent le biais, hein? Je suis d'accord.).

    Je comptais, à l'origine, intégrer la notion d'applications et de comment en «lancer» à partir d'un WM, mais cet article est déjà bien trop long, finalement, et il me reste à poser un certain nombre de questions, sur lesquelles j'aimerai bien avoir vos opinions.

    Par exemple, j'ai mentionné l'accessibilité:

    je n'ai, à priori, aucune déficience physique (pour le mental, ça reste à prouver…) qui m'empêche d'utiliser mes machines avec l'interface de mon choix, mais d'autres n'ont pas cette chance (s'il y en a dans la salle, venez me voir à la fin de… je m'égare la…) et je me demande, de manière générale, si prendre en compte ces aspects et contraintes ne pourrait pas améliorer l'usage de ceux qui ne sont pas affectés, voire retarder l'éventualité de le devenir, ou même réduire l'impact lorsqu'un problème arrive: nous vivons de plus en plus vieux, et j'ai pu voir une personne dépérir suite à la perte de l'ouïe. Je n'ose imaginer la vue pour moi, gros utilisateur d'écrans (en théorie j'en suis encore loin, mais…).

    Doit-on considérer que le contrôle sonore (synthèse et reconnaissance vocale) font partie d'un DE? Si oui (et je pense que oui), quels outils permettent de traduire le traditionnel saisie+visuel vers ce domaine?

    D'ailleurs, est-ce pertinent de chercher à traduire des applications de base mal pensées? Ne serait-il pas possible de penser un outil pour faciliter la mise en place de frontaux permettant l'accès à diverses «cibles» (sourds, muets, féministes, trisomiques, geeks, famille Michu…)?

    Quid des périphériques embarqués? Des géants (je sais, c'est ironique, de qualifier µsoft de géant) ont essayé, mais se sont cassés les dents dessus: pourquoi? Quelles sont les spécificités des tablettes et débilophones qui rendent ces outils si peu simples à utiliser pour des usages avancés ( rappelez-vous: la cible de cette série de journaux, sont les utilisateurs avancés)? D'ailleurs, c'est quoi, un usage avancé?

    Voila, j'avoue, je trouvais que ça manquais de techno-trolls par ici ces derniers temps, alors je me dévoue pour, au moins, essayer de lancer un truc :]
    Bon, j'aurai probablement du poster ça un jeudi soir ou trolldi matin, mais j'aimerai essayer de régler ce guide un jour, et vu que je suis motivé ce soir…

    PS: je note que l'usage de ] au lieu de ) pour les smiley évite la confusion de mon éditeur de texte favori. Que pensez-vous de cette idée? En plus, ça évite de gâcher la journée de ceux qui noterons une incohérence entre les ( et les )?

    Lire les commentaires

  • Apple change la licence de CUPS (Journaux LinuxFR)

    Apple a annoncé le 7 novembre qu'à partir de la prochaine version stable de CUPS (2.3), la licence passera de la GPL v2 vers la licence Apache 2 plus permissive pour eux.

    https://www.cups.org/blog/2017-11-07-cups-license-change.html

    Lire les commentaires

  • Intégration d'un poste GNU/Linux dans un domaine Windows (Journaux LinuxFR)

    Il y a quelques années, j'avais administré un petit parc de 100 postes dans une PME. Pour être tranquille avec les virus, ne plus avoir à ré-installer 1 à 2 postes Windows par mois et ne plus avoir la moitié des fichiers vérolés par des vers dans les dossiers partagés en réseau, j'avais remplacé 80% des postes Windows par des postes GNU/Linux.

    C'était facile, tous ces postes utilisaient Firefox, Thunderbird, LibreOffice et se connectaient à un serveur TSE pour l'ERP. Rien d'autre de particulier. Par précaution, j'avais ré-installé tous les postes Windows restants (CAO, anciennes applications DOS/Windows sans contrat de support que j'avais virtualisées avec VirtualBox, logiciels d'acquisition/transmission de données et de pilotage d'appareils industriels). J'en avais profité pour faire le ménage dans les pourriciels et pour rappeler les consignes de sécurité (clé USB, pièces jointes, téléchargement).
    Les droits d'accès étant gérés par un serveur Windows 2003, je ne m'étais pas cassé la tête à intégrer les postes GNU/Linux dans le domaine, j'avais juste mémorisé sur chaque poste les accès aux dossiers partagés et créé localement sur chaque poste un utilisateur/mot de passe identique à celui enregistré dans l'Active Directory.
    C'était moche mais ça marchait et comme c'était galère à l'époque d'intégrer un poste GNU/Linux dans un domaine Windows, je ne m'étais pas cassé la tête.
    J'ai de suite eu un gain de temps disponible considérable, plus d'utilisateurs plantés ou ralentis, plus de messagerie bloquée, plus de redémarrages des postes, plus d'ordinateur à ré-installer. J'ai gagné facilement plus de 2 jours de temps libre par semaine et j'ai pu tranquillement travailler sur l'intégration de l'ERP.
    Au passage, la connexion au serveur TSE depuis GNU/Linux marchait très bien avec Remmina, on perdait juste la possibilité d'écrire des caractères spéciaux (par exemple diamètre) avec la combinaison de touches ALT+xxx. Mais c'est maintenant possible de faire cela avec un logiciel libre tel que WinCompose.
    En lisant par hasard un article sur l'outil realm pour intégrer facilement un poste GNU/Linux dans un royaume Kerberos, j'ai eu l'envie de tester cela, ce que je n'avais pas fait à l'époque.
    J'ai installé Linux Mint MATE et un serveur Windows 2008 dans 2 machines virtuelles avec VirtualBox et j'ai commencé à tester cela. Avec l'aide d'un membre du Graoulug (pub), on a réussi à intégrer la machine dans le domaine Windows et à monter automatiquement un dossier Windows partagé lorsque l'utilisateur Linux ouvre une session.
    Une documentation détaillée est disponible, elle a déjà été testée par une autre personne avec un serveur Windows 2012.
    Si vous souhaitez tester cela, n'hésitez pas à apporter vos commentaires, critiques, suggestions, corrections etc.

    Lire les commentaires

  • Un type de chez facebook en conf à l'Espace des Sciences (Journaux LinuxFR)

    [Hervé Février] Des grains de sable… Aux réseaux sociaux

    Spoiler alerte : il y a pas mal de propagande, de léchage de cul des gouvernements (ça façon de parler du marché chinois est juste exceptionnel), des semblants de résumé de cours réseau qui donne envie de s'étouffer de rire.
    Vous attendez pas à se que se soit aussi passionnant qu'un bon cru de Bayart ou de Bortzmeyer.

    Lire les commentaires

  • Transfert de fichier simple entre deux périphériques sans Bluetooth (Dépêches LinuxFR)

    Qui ne s'est pas déjà retrouvé bête avec deux périphériques ultra-connectés (ordiphone, PC, …) dans les mains sans pouvoir transférer un fichier de l'un à l'autre, rapidement et simplement (sans sortir ses outils en console ou faire appel à un Nuage), dans le cas où un des périphériques n'a pas le Bluetooth ?
    Cette dépêche présente brièvement deux outils pour répondre à ce besoin : woof et ShareViaHttp.

    Prérequis

    • les deux périphériques doivent être accessibles dans un même réseau (généralement le besoin c'est dans le réseau local mais ça marche sur Internet)
    • au moins un des périphériques doit tourner sous Android ou Linux
    • coté Linux, l'intégration a été réalisée et testée avec Thunar mais elle doit pouvoir s'adapter facilement à d'autres gestionnaires de fichiers. Principales dépendances : python, zenity (facultatif)

    Les outils

    woof fournit un serveur web minimal pour servir un fichier que vous passez en argument. Le projet n'a pas l'air très vivant, mais le code fourni répond au besoin et il existe un paquet Debian.

    Share via HTTP est une appli pour Android, libre et disponible sur le marché libre F-Droid. Elle permet de la même manière de servir rapidement un fichier présent sur un périphérique Android.

    Configuration

    • coté Android : rien à faire, l'option de partage « Share via HTTP » apparait automatiquement dans les navigateurs de fichiers lorsque vous sélectionnez un ou plusieurs fichiers.

    • coté Linux : woof étant un script Python, un petit script d'habillage permet de faciliter son utilisation en l'intégrant dans Thunar :

      !/bin/sh

      partage d'un fichier avec Woof et affichage d'un popup rappellant l'adresse d'accès.

      PORT=9999
      MON_IP_PRIVE=ip addr | awk '/inet / {sub(/\/.*/, "", $2); print $2}' |grep 192
      MON_IP_PUB=wget -qO- http://ipecho.net/plain
      FICHIER=$1

      echo "Partage de '$FICHIER' avec Woof."

      woof -p $PORT $FICHIER &

      CODE_SORTIE=$?
      echo "Code sortie : $CODESORTIE"

      Affichage de la fenêtre

      zenity --title="Partage d'un fichier" --info --text="Fichier '$FICHIER' disponible via http://$MON_IP_PRIVE:$PORT ou http://$MON_IP_PUB:$PORT."&

    Maintenant on peut faire le lien dans Thunar de manière à pouvoir appeler le script par un clic droit sur le fichier à partager. Pour cela il faut passer par Édition > Configurer les actions personnalisées… > Ajouter une nouvelle action personnalisée.
    Indiquer dans la commande le chemin d'accès au script et vérifier dans l'onglet « Conditions d'apparition » que tous les types de fichiers sont bien cochés.

    Création d'une action personnalisée dans Thunar

    Utilisation

    Une fois que tout est configuré, il suffit de partager d'un coté, puis de se connecter avec votre navigateur (voire wget) sur l'adresse IP et le port indiqué par ShareViaHTTP ou woof.

    Aperçu du partage avec woof et le script d'habillage utilisé dans Thunar

    L'action Partager est maintenant disponible par un clic droit sur n'importe quel fichier dans Thunar

    Un popup est affiché pour rappeler l'adresse à rentrer sur le 2e périphérique

    Aperçu du partage coté Android avec ShareViaHTTP

    aperçu coté Android

    Nota :

    • ShareViaHTTP permet de partager plusieurs fichiers en même temps en créant un zip ;
    • Si vous avez besoin de transférer un fichier depuis votre ami Michue ayant un périphérique utilisant Windows par exemple, il est possible d'utiliser woof en mode upload ;
    • le port par défaut est 9999 ce qui est facile à retenir.

    Lire les commentaires

  • Projet DIY d'intégration continue auto-hébergée (Journaux LinuxFR)

    Alors voilà le topo, je me suis monté une infrastructure auto-hébergée contenant :

    • stockage de fichier (nextcloud)
    • mail (postfix/dovecot/…) et webmail (roundcube)
    • git (gogs)
    • annuaire ldap (openldap) pour tout le monde

    Le tout basé sur du container docker, sur un Kimsufi (40Go de disque, 4Go de RAM).

    Je voulais exécuter les TU/TF de mes projets (qui sont sur le gogs) sans passer par un service externe (CircleCI, TravisCI, Codeship, …) qui serait potentiellement payant pour mes projets privés.

    J'ai du coup regardé côté Travis, on a une petite 10aine de container docker pour lancer l'infra, pas top le serveur est déjà assez charger.

    Après, je sais qu'il y a Jenkins. Mais parlons de manière totalement subjective, je ne suis pas fan de ce qui est fait en Java généralement (surtout pour un serveur qui a déjà 3Go de conso de RAM sur les 4Go totaux).

    Puis survient un manque de motivation à faire une recherche google pour trouver une solution qui saura me satisfaire. Je me dis alors "ça doit pas être si compliqué que ça à faire quand même ?".

    Aller, de quoi on a besoin ?

    • un serveur HTTP qui pour recevoir les requêtes POST de la webhook de Gogs
    • un daemon qui va recevoir les demandes d'exécution de job
    • une UI web pour voir l'avancement, l'historique, les logs et le résultat des jobs
    • une base de données pour stocker tout ça
    • un host docker pour créer le container qui va exécuter le job

    Au niveau des technos, ça donne donc :

    • serveur HTTP en Python/Flask
    • Python/celery pour l'exécution des jobs :
      • pygit2 pour cloner le dépôt
      • les bindings python de docker pour run le container docker
    • l'UI ultra minimaliste servie par le serveur HTTP, basée sur materialize
    • pyDAL pour la BDD -> https://github.com/web2py/pydal

    Le déroulement est simple :

    • je push dans mon dépôt, ce dernier contient un fichier .microci.json qui spécifie l'image docker à utiliser et la commande à lancer
    • gogs envoi la requếte POST
    • le handler sauvegarde le job dans la BDD puis demande à celery d'exécuter la tâche de lancement du job
    • le job passe du status PENDING à STARTED
    • on clone le dépôt git
    • on créé le container docker, et on bind le dépôt git dans le /repo du container
    • la commande du container est celle spécifiée dans le .microci.json du dépôt
    • si la commande retourne un code d'erreur égal à 0, le job passe à SUCCEED, sinon FAILED
    • si une exception est levée à une des étapes précédentes, le job passe à ERRORED

    Voilà, moins d'une journée consécutive passé dessus et j'obtiens un petit outil de CI fait maison : https://github.com/linkdd/microci

    Attention néanmoins :

    • il n'y a pas d'authentification, je la gère au niveau du reverse proxy nginx
    • aucun audit de sécurité n'a été effectué, l'outil tourne en interne uniquement sur des projets privés (c'est pas une raison valable cela-dit)

    J'ai quand même prévu d'ajouter une webhook pour Github, Gitlab et Bitbucket, mais c'est vraiment pas dans mes priorités pour l'instant.

    J'ai publié le projet sous licence MIT pour les curieux, je ne m'attends pas à ce que ce dernier serve à quelqu'un cela-dit (m'enfin, on ne sait jamais).

    Sur ce, bonne semaine à tous!

    Lire les commentaires

  • L'arnaque bitcoin (Journaux LinuxFR)

    Les frais de transactions sont beaucoup plus eleves qu'avec une carte bancaire.

    Genre, recemment, pour une transaction de 12$, j'ai presque 6$ de frais.

    C'est n'importe quoi.
    En plus, les transactions ne sont meme pas garanties: elles peuvent echouer (ce qui fut mon cas).

    Si c'est le prix de l'anonymat (dont je doute fort pour bitcoin), utiliser du liquide coute beaucoup moins cher (ca coute 0).
    Les frais de transactions devraient etre de 1% maximum. C'est quoi l'avantage pour les utilisateurs si bitcoin ne fait pas concurrence au moins au niveau tarifaire avec tous les systemes de paiement classiques?

    Lire les commentaires

  • Retour d'expérience et présentation d'Ada dans le contexte d'une appli audio (Journaux LinuxFR)

    Bon, ce sera presque un journal bookmark mais je vais essayer d'étoffer un peu.

    Dans la même veine que l'excellent journal sur la ré-écriture de Gnirehtet en Rust, un article sur ElectronicDesign vient de sortir sur le portage de l'implémentation de référence en C d'un décodeur MPEG-2 vers Ada.
    Bon, l'article est co-écrit par Raphaël Amiard d'AdaCore et Gustavo Hoffmann de chez Dolby ce qui présage tout de même d'un peu d'évangélisation.
    Toutefois, cet article a le mérite de montrer beaucoup d'aspects du langage pouvant être utilisés dans le cadre d'un décodeur audio tout en détaillant leur utilisation dans le portage.
    On y parle donc d'arithmétique à virgule fixe, (explications ), d'énumérations, d'enregistrements, d'absence de pointeurs (si si, on peut faire beaucoup de choses sans pointeur), de généricité et d'un peu de multi-tâches.

    Bonne lecture, je reste dans le coin pour les questions :D

    PS : Au passage, on pourra même en parler le 7 décembre prochain si vous venez sur le site d'Ada-France au Paris Open Source Summit

    Lire les commentaires

  • Capitole du Libre 2017 : programme des festivités des 18 et 19 novembre (Dépêches LinuxFR)

    La sixième édition du Capitole du Libre, l’événement du logiciel libre en Occitanie, se déroulera le 18 et 19 novembre prochain à l’ENSEEIHT, en centre‐ville de Toulouse (INP-ENSEEIHT). Cet événement annuel est organisé par Toulibre, une association basée à Toulouse qui vise à promouvoir le logiciel libre et le Libre en général.

    Le Capitole du Libre s’adresse aux initiés et aux novices et propose des conférences et des ateliers pour découvrir ou approfondir votre maîtrise des logiciels libres. C’est un moment d’échange et de partage pour mieux appréhender des outils, des technologies ou des problématiques que vous côtoyez ou que vous côtoierez un jour.

    Bannière

    D’accès libre et gratuit, vous retrouverez durant le week‐end des conférences et des ateliers autour des thèmes suivants (liste non exhaustive) :

    • le Libre en général : la découverte du logiciel libre ;
    • IoT et embarqué : les outils et les logiciels libres pour le matériel ;
    • DevOps : système d’information et infrastructure ;
    • sécurité : à la fois des systèmes et des réseaux ;
    • libertés et vie privée : auto‐hébergement, sécurité et vie privée sur l’Internet ;
    • communauté : l’écosystème des communautés du logiciel libre ;
    • 3D, création graphique et multimédia : la réalisation d’œuvres numériques avec des outils libres ;
    • jeux libres : le jeu vidéo libre, création et expérience ludique.

    Certaines conférences du samedi seront interprétées en langue des signes (elles sont signalées comme telles sur le programme).

    Quelques incontournables cette année

    La conférence Le Numérique libre à l’ère du Cloud : faut‐il se résigner à vivre dans l’écosystème Google ?, de Tristan Nitot, chef de produit chez Cozy Cloud et fondateur de Mozilla Europe, aura lieu le samedi de 14 h à 15 h.

    Elle sera suivie par la conférence de Jean‐Baptiste Kempf, président de l’association VideoLAN, qui présentera les nouveautés du lecteur multimédia de référence VLC.

    Sandrine Mathon de Toulouse Métropole donnera le samedi de 16 h 30 à 17 h 30 une conférence sur les données ouvertes (open data) et leurs conditions de réutilisation.

    François Grassard et Nathan Lovato vous feront découvrir respectivement l’avenir du temps réel dans le logiciel 3D Blender et la création de jeux vidéo de qualité professionnelle avec Godot Engine.

    Pierre Ficheux, directeur technique d’Openwide Ingénierie, présentera les technologies libres utilisables pour l’Internet des objets (IoT).

    Parmi les ateliers, la création de BD ou Manga avec David Revoy ou la création de campagnes pour le jeu de stratégie The Battle for Wesnoth avec Elzen seront également proposées. Des membres de Framasoft et de l’April seront bien évidemment présents à travers plusieurs interventions. Et la traditionnelle conférence du samedi soir prendra cette année la forme d’une table ronde sur la place du Libre dans la société.

    Malgré tout, si vous ne trouvez pas votre bonheur dans ces propositions, le programme très riche est consultable.

    Les animations

    Tout le week‐end, de nombreuses animations seront également proposées :

    • le village associatif vous permettra d’échanger avec les acteurs des communautés du Libre ;
    • un espace junior, mis en place le samedi de 10 h à 18 h, autorisera les plus jeunes à pratiquer et à tester l’impression 3D, la robotique et les jeux vidéo ;
    • vous retrouverez également l’habituelle install party, renommée pour l’occasion Atelier installation et dépannage GNU/Linux ; Mis en place l’année dernière, un espace accessible à tous sera dédié à l’affichage d’offres d’emploi pour vous permettre de faire part de vos besoins ou pour repartir avec des contacts pour votre recherche d’emploi (job board).

    La veille

    En préambule, le vendredi 17 novembre de 16 h à 19 h à la médiathèque Empalot, l’April, Framasoft et Toulibre représentées respectivement par Bookynette, Pouhiou et Guillaume Gasnier proposeront d’échanger autour de votre vie numérique et d’envisager des solutions alternatives aux services et logiciels proposés par les géants du Web.

    Apportez votre contribution pendant l’événement !

    L’appel au bénévolat est également lancé. Si vous souhaitez être bénévole au Capitole du Libre, vous pouvez vous inscrire directement sur :
    https://participez-2017.capitoledulibre.org/volunteer/

    Vous pouvez aussi dès maintenant vous inscrire sur le planning :
    https://framacalc.org/benevoles-capitoles-du-libre-2017

    Une réunion d’information se tiendra le lundi 13 novembre à 19 h à l’ENSEEIHT pour présenter plus en détails l’événement.

    Lire les commentaires

  • D'un kernel panic à un patch… (Journaux LinuxFR)

    Sommaire

    Bonjour tout le monde

    Ma distribution, Debian sid, m'a proposé de passer sur le noyau 4.13. À l'occasion d'un reboot, je tente un démarrage sur ce nouveau noyau… et suis accueilli par un kernel panic. Expérience déplaisante s'il en est, je décide de repasser sur le 4.12, du travail m'attendant.
    Ayant eu plus de temps disponible ce week-end, je décide d'essayer le noyau 4.14-rc7, et découvre que le bug est toujours présent. Il est donc temps pour une enquête et un patch pour que les nouveaux noyaux continuent de démarrer mon système… Et on verra que des rudiments de C peuvent être suffisants pour certains bugs.

    L'analyse du kernel panic

    J'ai été contraint de prendre une photo du kernel panic (ma carte mère n'a pas le nécessaire pour sauvegarder un kernel panic hélas).
    Le kernel panic est visible ici : http://host.pinaraf.info/~pinaraf/kernel-panic-4.13-crypto.jpg (notez le cadrage excellent de la photo… je l'ai prise très rapidement car un autre message d'erreur non lié allait apparaître)

    Les éléments intéressants sont les suivants :

    • l'erreur en tant que telle
    BUG: unable to handle kernel pointer dereference at 00000000000000xx
    IP: ecc_gen_privkey+0xa9 [ecdh_generic]
    
    • la call trace,
    • les registres.

    La call trace et l'IP (Instruction Pointer) montrent que l'erreur a lieu dans le module ecdh_generic, dans la fonction ecc_gen_privkey à l'adresse 0xa9 (relative au début de la fonction).
    L'erreur est une déréférence de pointeur NULL.

    Nous allons devoir regarder le code pour comprendre ce qu'il se passe dans ce module.

    Les pré-requis pour analyser le plantage

    J'ai installé les paquets suivants pour travailler à partir du noyau 4.13 : gdb, linux-image-4.13.0-1-amd64-dbg et linux-source-4.13.

    Ces paquets sont TRÈS volumineux. Ils installent un ensemble de symboles de debug dans /usr/lib/debug pour le premier, et le second nous met à disposition dans /usr/src une archive du code du noyau avec les patchs correspondant de debian.
    Je décompresse le code dans ma partition /data (les symboles de debug me prennent déjà 4GB, je peux pas beaucoup plus sur le SSD), et je dégaine gdb. Le module concerné est ecdh_generic, donc…

    L'analyse du problème

    Lançons GDB !

    $ gdb /usr/lib/debug/lib/modules/4.13.0-1-amd64/kernel/crypto/ecdh_generic.ko
    GNU gdb (Debian 7.12-6+b1) 7.12.0.20161007-git
    Copyright (C) 2016 Free Software Foundation, Inc.
    License GPLv3+: GNU GPL version 3 or later <http://gnu.org/licenses/gpl.html>
    This is free software: you are free to change and redistribute it.
    There is NO WARRANTY, to the extent permitted by law.  Type "show copying"
    and "show warranty" for details.
    This GDB was configured as "x86_64-linux-gnu".
    Type "show configuration" for configuration details.
    For bug reporting instructions, please see:
    <http://www.gnu.org/software/gdb/bugs/>.
    Find the GDB manual and other documentation resources online at:
    <http://www.gnu.org/software/gdb/documentation/>.
    For help, type "help".
    Type "apropos word" to search for commands related to "word"...
    Reading symbols from /usr/lib/debug/lib/modules/4.13.0-1-amd64/kernel/crypto/ecdh_generic.ko...done.
    

    Il ne reste plus qu'à indiquer à gdb où se trouve le code, et lui demander de désassembler la fonction ecc_gen_privkey en indiquant le code source correspondant. On sait que l'erreur a lieu à l'offset 0xa9, soit 169 en décimal. Je ne vous mettrai donc que le code correspondant à cette partie ici.

    (gdb) set directories /data/pierre/kernel-panic/linux-source-4.13/
    (gdb) disassemble /s ecc_gen_privkey
    Dump of assembler code for function ecc_gen_privkey:
    ./crypto/ecc.c:
    …
    949             int err;
    950
    951             /* Check that N is included in Table 1 of FIPS 186-4, section 6.1.1 */
    952             if (nbits < 160)
       0x000000000000226d <+141>:   jbe    0x22c7 <ecc_gen_privkey+231>
       0x000000000000226f <+143>:   mov    %r9,-0x38(%rbp)
    
    954
    955             /*
    956              * FIPS 186-4 recommends that the private key should be obtained from a
    957              * RBG with a security strength equal to or greater than the security
    958              * strength associated with N.
    959              *
    960              * The maximum security strength identified by NIST SP800-57pt1r4 for
    961              * ECC is 256 (N >= 512).
    962              *
    963              * This condition is met by the default RNG because it selects a favored
    964              * DRBG with a security strength of 256.
    965              */
    966             if (crypto_get_default_rng())
       0x0000000000002273 <+147>:   callq  0x2278 <ecc_gen_privkey+152>
    
    967                     err = -EFAULT;
    968
    969             err = crypto_rng_get_bytes(crypto_default_rng, (u8 *)priv, nbytes);
       0x0000000000002278 <+152>:   mov    0x0(%rip),%rdi        # 0x227f <ecc_gen_privkey+159>
    
    ./include/crypto/rng.h:
    143             return crypto_rng_alg(tfm)->generate(tfm, src, slen, dst, dlen);
       0x000000000000227f <+159>:   mov    %r15d,%r8d
       0x0000000000002282 <+162>:   xor    %edx,%edx
       0x0000000000002284 <+164>:   xor    %esi,%esi
       0x0000000000002286 <+166>:   mov    %rbx,%rcx
       0x0000000000002289 <+169>:   mov    0x38(%rdi),%rax
       0x000000000000228d <+173>:   callq  *-0x20(%rax)
       0x0000000000002290 <+176>:   mov    %eax,%r15d
    

    On voit bien à l'offset 169 une utilisation du registre RDI qui était à 0 dans le kernel panic. Le bug est donc assez évident : crypto_rng_alg(tfm) doit renvoyer un pointeur null, donc la méthode generate est à une adresse incorrecte, et la tentative d'appel échoue.

    Le code d'ecc.c correspondant est le suivant :

            if (crypto_get_default_rng())
                    err = -EFAULT;
    
            err = crypto_rng_get_bytes(crypto_default_rng, (u8 *)priv, nbytes);

    On note là une erreur de logique : si l'appel à crypto_get_default_rng échoue, on stocke une valeur dans une variable sans l'utiliser par la suite ? Cela semble incorrect.
    Voici le code de crypto_get_default_rng :

    int crypto_get_default_rng(void)
    {
            struct crypto_rng *rng;
            int err;
    
            mutex_lock(&crypto_default_rng_lock);
            if (!crypto_default_rng) {
                    rng = crypto_alloc_rng("stdrng", 0, 0);
                    err = PTR_ERR(rng);
                    if (IS_ERR(rng))
                            goto unlock;
    
                    err = crypto_rng_reset(rng, NULL, crypto_rng_seedsize(rng));
                    if (err) {
                            crypto_free_rng(rng);
                            goto unlock;
                    }
    
                    crypto_default_rng = rng;
            }
    
            crypto_default_rng_refcnt++;
            err = 0;
    
    unlock:
            mutex_unlock(&crypto_default_rng_lock);
    
            return err;
    }

    Si cet appel échoue, la variable crypto_default_rng reste à NULL. Donc l'appel par la suite à crypto_rng_get_bytes avec un pointeur NULL déclenche la déréférence de pointeur NULL.

    Le correctif est donc très simple : si crypto_get_default_rng renvoie une erreur, il faut renvoyer -EFAULT et pas juste ignorer l'erreur…

    Correction du problème et envoi du patch…

    Le bug a lieu dans la partie crypto du noyau. Regardons qui s'en occupe…

    $ ./scripts/get_maintainer.pl crypto/ecc.c
    Herbert Xu <herbert@gondor.apana.org.au> (maintainer:CRYPTO API)
    "David S. Miller" <davem@davemloft.net> (maintainer:CRYPTO API)
    linux-crypto@vger.kernel.org (open list:CRYPTO API)
    linux-kernel@vger.kernel.org (open list)
    

    Donc nous avons là la mailing list, les mainteneurs, et nous pouvons déduire de https://git.kernel.org/ qu'il faut cloner le dépôt https://git.kernel.org/pub/scm/linux/kernel/git/herbert/crypto-2.6.git/ pour disposer du dernier code de cette partie du noyau.

    Après un long git clone (le noyau, c'est beaucoup), on peut voir que le bug est toujours présent dans le dernier noyau.
    On fait donc un patch de la ligne err = -EFAULT; pour la changer en return -EFAULT;… Et il n'y a plus qu'à préparer le tout.

    $ git commit -sa
    # Je vous laisse imaginer un beau message
    $ git format-patch origin/master -o ../patchs
    

    On a dans le dossier ../patchs un beau fichier .patch, qu'il n'y a plus qu'à envoyer aux adresses précédemment citées. (Paquet git-email pour les debianneux)

    git send-email --to=linux-crypto@vger.kernel.org -cc=davem@davemloft.net -cc=herbert@gondor.apana.org.au ../patchs/0001-Fix-NULL-pointer-deref.-on-no-default_rng.patch
    

    Et voilà !

    J'espère que le 4.14 sera corrigé avant sa sortie, je n'aime pas avoir une version plus maintenue du noyau

    Lire les commentaires

  • Capitole du Libre 2017: programme des festivités des 17, 18 et 19 novembre (Dépêches LinuxFR)

    La 6e édition du Capitole du Libre, l'événement du Logiciel Libre en Occitanie, se déroulera le 18 et 19 novembre prochain à l'ENSEEIHT, en centre-ville de Toulouse (INP-ENSEEIHT). Cet événement annuel est organisé par Toulibre, une association basée à Toulouse qui vise à promouvoir le logiciel libre et le libre en général.

    Le Capitole du Libre s'adresse aux initiés et aux novices et propose des conférences et des ateliers pour découvrir ou approfondir votre maîtrise des logiciels libres. C'est un moment d'échange et de partage pour mieux appréhender des outils, des technologies ou des problématiques que vous côtoyez ou que vous côtoierez un jour.

    D'accès libre et gratuit, vous retrouverez durant le week-end des conférences et des ateliers autour des thèmes suivants (liste non exhaustive) :

    • Le Libre en général: la découverte du logiciel libre
    • IoT et embarqué: les outils et les logiciels libres pour le matériel
    • DevOps: Système d'information et infrastructure
    • Sécurité: à la fois des systèmes et des réseaux
    • Libertés et vie privée: auto-hébergement, sécurité et vie privée sur l’Internet
    • Communauté: l'éco-système des communautés du logiciel libre
    • 3D, Création graphique et multimédia: la réalisation d’œuvres numériques avec des outils libres
    • Jeux libres: le jeu vidéo libre, création et expérience ludique

    Certaines conférences du samedi seront interprétées en langue des signes (elles sont signalées comme tel sur le programme).

    Quelques incontournables cette année

    La conférence « Le numérique Libre à l'ère du Cloud : faut-il se résigner à vivre dans l'éco-système Google ? » de Tristan Nitot, chef de produit chez Cozy Cloud et fondateur de Mozilla Europe, aura lieu le samedi de 14h à 15h.

    Elle sera suivie par la conférence de Jean-Baptiste Kempf, président de l'association VideoLAN qui présentera les nouveautés du lecteur multimédia de référence VLC.

    Sandrine Mathon de Toulouse Métropole donnera le samedi de 16h30 à 17h30 une conférence sur les données ouvertes (Open Data) et leurs conditions de réutilisation.

    François Grassard et Nathan Lovato vous feront découvrir respectivement l'avenir du temps réel dans le logiciel 3D Blender et la création de jeux vidéo de qualité professionnelle avec Godot Engine.

    Pierre Ficheux, CTO d'Openwide Ingénierie, présentera les technologies libres utilisables pour l'Internet des Objets (IoT).

    Parmi les ateliers, la création de BD/Manga avec David Revoy ou la création de campagne pour le jeu de stratégie Battte for Wesnoth avec Elzen seront également proposés. Des membres de Framasoft et de l'April seront bien évidemment présents à travers plusieurs interventions. Et la traditionnelle conférence du samedi soir prendra cette année la forme d'une table ronde sur la place de l'Open Source dans la société.

    Malgré tout, si vous ne trouvez pas votre bonheur dans ces propositions, le programme très riche est consultable ici.

    Les animations

    Tout le week-end, de nombreuses animations seront également proposées.
    Le village associatif vous permettra d'échanger avec les acteurs des communautés du Libre.
    Un espace junior, mis en place le samedi de 10h à 18h, autorisera les plus jeunes à pratiquer et à tester l'impression 3d, la robotique et les jeux vidéo.
    Vous retrouverez également l'habituelle Install party renommée pour l'occasion Atelier installation et dépannage Linux.
    Mis en place l'année dernière, un espace accessible à tous sera dédié à l'affichage d'offres d'emploi pour vous permettre de faire part de vos besoins ou pour repartir avec des contacts pour votre recherche d'emploi (job board).

    La veille

    En préambule, le vendredi 17 novembre de 16h à 19h à la médiathèque Empalot, l'April, Framasoft et Toulibre représentées respectivement par Bookynette, Pouhiou et Guillaume Gasnier proposeront d'échanger autour de votre vie numérique et d'envisager des solutions alternatives aux services et logiciels proposés par les géants du web.

    Apportez votre contribution pendant l'événement !

    L'appel à bénévole est également lancé. Si vous souhaitez être bénévole au Capitole du Libre, vous pouvez vous inscrire directement sur: https://participez-2017.capitoledulibre.org/volunteer/
    Vous pouvez aussi dès maintenant vous inscrire sur le planning:
    https://framacalc.org/benevoles-capitoles-du-libre-2017
    Une réunion d'information se tiendra le lundi 13 novembre à 19h à l'ENSEEIHT pour présenter plus en détails l'événement.

    Lire les commentaires

  • Agenda du Libre pour la semaine 46 de l’année 2017 (Dépêches LinuxFR)

    Calendrier Web, regroupant des événements liés au Libre (logiciel, salon, atelier, install party, conférence), annoncés par leurs organisateurs. Voici un récapitulatif de la semaine à venir. Le détail de chacun de ces 54 événements (0 en Belgique, 49 en France, 0 au Luxembourg, 4 au Québec, 0 en Suisse et 1 en Tunisie) est en seconde partie de dépêche.

    Sommaire

    [FR Castelnau-le-Lez] Section GNU/Linux Ubuntu et Logiciels Libres - Le lundi 13 novembre 2017 de 10h00 à 12h00.

    L’équipe de Montpel’libre vous propose une permanence Logiciels Libres, discussions libres et accompagnements techniques aux systèmes d’exploitation libres, pour vous aider à vous familiariser avec votre système GNU/Linux au quotidien.

    Le contenu de l’atelier s’adapte aux problèmes des personnes présentes et permet ainsi l’acquisition de nouvelles compétences au rythme de chacun.

    Vous pourrez y aborder plusieurs thèmes

    • Discussions conviviales entre utilisateurs autour de Linux en général
    • Préinscription aux prochains Cafés Numériques et Install-Party
    • Premières explorations du système
    • Installations et configurations complémentaires
    • Mise à jour et installation de nouveaux logiciels
    • Prise en main, découverte et approfondissement du système

    Les Section GNU/Linux ont lieu à la Mjc André Malraux de Castelnau-le-Lez, tous les lundis de 10h00 à 12h00, sauf périodes de vacances

    [FR Chambéry] Mapathon d'ouverture à l'OSMGeoWeek - Le lundi 13 novembre 2017 de 19h00 à 22h00.

    DESCRIPTION

    Venez nous aider à cartographier sur OpenStreetMap, la carte du monde collaborative et libre pendant OSMGeoWeek CartONG, et Le Mug vous invitent à un mapathon Missing Mapspour découvrir la cartographie participative et humanitaire dans OpenStreetMap pas besoin d'être un expert, c'est accessible à tout le monde

    OSMGeoWeek

    OpenStreetMap Geography Awareness Week (OSMGeoWeek), est le festival international de sensibilisation à la cartographie sur OpenStreetMap. Il se déroule cette année, du 13 au 19 novembre

    Ce festival rassemble l’ensemble des organisations humanitaires, organismes privés, institutions, individus et communautés qui souhaitent sensibiliser à OSM, et faire découvrir cette base de données au plus grand nombre.

    Pourquoi

    L’objectif du projet Missing Maps est de créer des cartes pour les zones de crise des pays en voie de développement qui en ont le plus besoin. En effet, on peut penser qu'aujourd'hui toutes les parties du monde sont cartographiées, mais en réalité nombreuses régions ne possèdent encore aucunes cartes. L'objectif de Missing Maps est donc de cartographier toutes ces zones encore invisibles sur les cartes, pour permettre par la suite aux collectivités locales et acteurs de l'humanitaire de pouvoir agir plus efficacement en cas de crise.

    Nos objectifs

    • Soutenir l’accomplissement de projets de développement portés par des activistes locaux, parties prenantes de communautés OSM d’Afrique francophone, tout en créant du lien entre les différentes communautés (tant entre les communautés africaines qu’avec la France et l’international).

    • Promouvoir les activités des communautés d’Afrique francophone trop peu connues en France

    Comment

    Avec la plateforme de cartographie, OpenStreetMap (OSM, le Wikipédia des cartes) crée et fournit des données géographiques libres et collaboratives pour quiconque en aura besoin. Cet outil permet d'éditer des cartes routières, cyclables ou thématiques, mais permet aussi de compléter les zones qui ne sont pas encore cartographiées. Avec OSM il est possible d'ajouter routes, bâtiments ou cours d’eau, grâce à des images satellites il suffit d'un ordinateur, d'une souris et d'une connexion internet.

    Le programme de la soirée

    Nous vous proposons de découvrir comment contribuer à OpenStreetMap durant un mapathon. Cet événement s'inscrit dans le cadre de l'initiative globale Missing Maps, projet humanitaire qui vise à cartographier en amont les parties du monde vulnérables aux catastrophes naturelles, crises sanitaires, environnementales, aux conflits et à la pauvreté. Ce soir là nous allons soutenir le projet du Burkina Faso pour carthographier la région de Bobo Dioulasso pour lutter contre le paludisme. Cette maladie contamine 9 millions de personnes et en tue plus de 4 000 par an. Ici, un article détaillé sur le parasite au Burkina Faso. Cette carte permettra une meilleure intervention des services de santé au niveau local, mais également de calculer la densité de population dans la zone, ce qui permettra à terme d'évaluer et d'apporter le matériel et les moyens suffisants pour répondre à cette crise sanitaire. … Plus d’information sur les autres projets sur CartONG.org

    Au programme

    • 18h30 accueil des participants

    • 18h40 Mot de bienvenue, présentation du projet Missing Maps et du déroulement de la soirée

    • 18h50 Présentation de la contribution dans OSM

    • 19h00 Cartographions

    • Fin du Mapathon 21h30

    Où?

    129 rue Sommeiller, 73000 Chambéry, France, le Mug Espace de Coworking

    Entrée gratuite sur inscription

    Venez nombreux, et n'oubliez pas d'apporter votre ordinateur portable, et souri(re)s

    [FR Lyon] Debian - Le lundi 13 novembre 2017 de 19h30 à 21h30.

    Atelier / discussion autour du système d'exploitation GNU/Linux Debian organisé par l' ALDIL en partenariat avec la MJC de MontChat.

    En complément des découvertes et bidouilles des 4e lundis du mois à la MJC, ces ateliers sont des séances d'approfondissement d'usages de Debian et dérivés.

    De la ligne de commande, des fichiers de config, un atelier pour plonger dans le système, voire s’amuser avec des Raspberry Pi.
    Possibilité de soirées thématiques.

    Public averti ou sans allergie au Doliprane. Entrée libre et gratuite dans la limite des places disponibles.

    De 19h30 à 21h30 dans l'espace EPN de la MJC de Montchat.

    [FR Rennes] Réunion mensuelle OpenStreetMap - Le lundi 13 novembre 2017 de 20h00 à 22h00.

    L'association Gulliver propose chaque 2e lundi du mois une réunion autour du projet de cartographie collaborative OpenStreetMap.

    L'occasion de découvrir le projet, de venir échanger sur les nouveauté, de partager vos initiatives.

    [FR Montpellier] DigiWorld Week - Le mardi 14 novembre 2017 de 16h00 à 19h00.

    Éditathon - Les start-up et pépites numériques occitanes (19 places sur inscription)

    Investing in our Digital Future

    Entrée libre sur inscriptions

    • Un Éditathon consiste à apprendre à créer un compte Wikipédia et à contribuer sur Wikipédia (rédiger un article, modifier ou traduire un article).
    • L’idée ici est de bien connaître nos start-up et pépites occitanes pour recentrer le débat, dans un but d’information, sur les entreprises phares de notre Région dans un but d’information.

    Cet événement vous est proposé dans le cadre du partenariat qui lie la Région Occitanie, La Gazette Café, la French Tech, Montpellier Méditerranée Métropole, DigitalPlace, FrenchSouth, DigiWorld Week, Sud de France Développement, l’Idate et Montpel’libre.

    Mardi 14 novembre 2017 de 16h00 à 19h00
    La Gazette Café, 1er étage - 6, rue Levat 34000 Montpellier

    La Gazette Café Tramway lignes 1, 2, 3 et 4, arrêt Gare Saint-Roch
    GPS Latitude 43.60461 | Longitude 3.87842
    Carte OpenStreetMap

    [FR Quimper] Permanence Linux Quimper - Le mardi 14 novembre 2017 de 17h00 à 18h00.

    Tous les mardis de 17h à 18h, Linux Quimper vous donne rendez-vous au Centre social des Abeilles, 4 rue Sergent Le Flao à Quimper (entrée libre et gratuite).

    Curieux, déjà utilisateur, expert, vous êtes les bienvenu-e-s pour un dépannage, une installation, un conseil, une aide, discuter, échanger, etc… sur Linux et les logiciels libres.

    N'hésitez pas à venir avec votre PC si vous voulez une installation ou un dépannage de Linux ou avec votre périphérique récalcitrant (imprimante, scanner…).

    Pour les ordinateurs fixes, apportez uniquement votre Unité Centrale, nous avons écrans, claviers, souris.

    Pour une installation d'une distribution GNU/Linux de votre choix sur votre ordinateur, pensez à

    • Sauvegarder vos données personnelles
    • Libérer de la place sur le disque dur (20 Go minimum) et défragmenter Windows si vous voulez le conserver.

    Renseignements 07 68 59 17 32

    [FR Montpellier] Initiation Shotcut - Le mardi 14 novembre 2017 de 17h00 à 19h00.

    Shotcut
    Montage vidéo. Grâce à un logiciel simple et intuitif, vous serez rapidement capable de réaliser un petit film ou court-métrage d’animation en utilisant de courtes séquences vidéo, des photos ou des images. Pour épater vos amis ou pour vous lancer dans l’aventure de l’animation, cette séance est faite pour vous
    Shotcut est un logiciel libre de montage vidéo multiplateforme pour Windows, MacOS X, et GNU/Linux. Le projet a démarré en 2011 par Dan Dennedy. Shotcut utilise le moteur de montage vidéo MLT Media Lovin’ Toolkit.

    Audacity
    Retouchez vos pistes audio pour vos montages vidéos ou autres applications, pour les améliorer, les couper, les mixer…
    Audacity est un logiciel libre pour la manipulation de données audio numériques, il permet d’enregistrer du son numérique par le biais des entrées ligne/micro/cd des cartes sons. Il permet d’éditer (copier, coller, sectionner…) les sons sur plusieurs pistes, et il est accompagné de divers filtres et effets pitch, tempo, réduction de bruit, égaliseur, filtres de Fourier, augmentation de fréquences précises, compression, amplification, normalisation, écho, phaser, wahwah, inversion…

    Scratch
    Découvrir une manière simple et ludique d’apprendre la programmation informatique en créant un jeu vidéo basique à l’aide du logiciel Scratch.
    Scratch est une implémentation visuelle et dynamique du langage de programmation Smalltalk fondée sur Squeak. Cette plateforme d’apprentissage de codage comporte de plus de 14,5 millions de projets partagés allant de l’animation à la simulation 3D. Le nombre d’utilisateurs enregistrés est de 12 millions et ne cesse d’augmenter.

    Inkscape
    Dessiner avec Inkscape, logiciel libre, puissant et gratuit qui permet de créer des dessins vectoriels. Vous pourrez ainsi dessiner avec aisance directement en mode numérique et donner corps à vos créations avec des formes, la duplication, la transparence, les transformations ou encore les dégradés et l’ajout de texte.
    Inkscape est un logiciel libre de dessin vectoriel sous licence GNU GPL. Il gère des fichiers conformes avec les standards XML, SVG et CSS du W3C. Il s’agit d’un logiciel multiplateforme, disponible notamment sous Windows, Mac OS X (sous X11), GNU/Linux et FreeBSD.

    Mardi 07 novembre 2017 de 17h00 à 19h00 Groupe Blender
    Mercredi 08 novembre 2017 de 17h00 à 19h00 Initiation Gimp
    Mardi 14 novembre 2017 de 17h00 à 19h00 Initiation Shotcut
    Mercredi 22 novembre 2017 de 17h00 à 19h00 initiation Audacity
    Mardi 28 novembre 2017 de 17h00 à 19h00 Initiation Inkscape
    Salle Nino Rota, Médiathèque Federico Fellini place Paul Bec, 34000 Montpellier

    [FR Biot] RAL Learning Centre - Le mardi 14 novembre 2017 de 18h00 à 20h30.

    Certains les appellent install party, d’autres encore Soirées Linux, mais les Rencontres Accès Libre sont tout cela en même temps, et bien plus encore…

    C'est l’occasion de

    • discuter, échanger, expliquer
    • installer des logiciels libres
    • et, toute autre idée coopérative de solidarité à but non lucratif

    Entrée Libre. Tout Public.

    [FR Grenoble] Des experts Mozilla présentent Firefox Quantum - Le mardi 14 novembre 2017 de 18h30 à 21h00.

    Naviguez vite et libre

    Le navigateur web Firefox fait peau neuve, venez la découvrir lors de la journée de lancement de sa toute dernière version Firefox Quantum (57).

    Rendez-vous autour d’un verre à La Coop, mardi 14 novembre à partir de 18h30 avec les experts Mozilla.

    Plus rapide, plus simple d'utilisation, nouvelles fonctionnalités, nouveau look découvrez le nouveau Firefox Quantum

    Gratuit sur inscription

    [FR Nantes] Rencontre mensuelle OpenStreetMap - Le mardi 14 novembre 2017 de 18h30 à 21h30.

    Tous les mois les contributeurs nantais à la carte participative libre OpenStreetMap se réunissent.
    Ces rencontres libres et gratuites sont ouvertes à tou.te.s

    Venez nous rencontrer et faire connaissance. Selon vos souhaits, questions, nous vous montrerons ce qu'est OpenStreetMap comment l'utiliser ou y participer.

    Le lieu de réunion est équipé d'ordinateurs mais n'hésitez pas à apporter vos appareils numériques ordinateurs portables, tablettes, smartphones.

    Lieu de réunion Médiagraph 1 rue d'Auvours  44000 Nantes >>>Localisation

    Y venir en voiture, en vélo, à pied

    [FR Saint Etienne] Mapathon Missing Maps - Le mardi 14 novembre 2017 de 18h30 à 21h30.

    DESCRIPTION

    Venez nous aider à cartographier sur OpenStreetMap, la carte du monde collaborative et libre pendant l’OSMGeoWeek

    CartONG, Zoomacom et l'OpenFactory vous invitent à un mapathon pour découvrir la cartographie participative et humanitaire dans OpenStreetMap pas besoin d'être un expert, c'est accessible à tout le monde

    OSMGeoweek

    OpenStreetMap Geography Awareness Week (OSMGeoWeek), est le festival international de sensibilisation à la cartographie sur OpenStreetMap. Il se déroule cette année, du 13 au 19 novembre

    Ce festival rassemble l’ensemble des organisations humanitaires, organismes privés, institutions, individus et communautés qui souhaitent sensibiliser à OSM, et faire découvrir cette base de données au plus grand nombre.

    Pourquoi

    On peut penser qu'aujourd'hui toutes les parties du monde sont cartographiées, mais en réalité de nombreuses régions ne possèdent encore aucune carte. Pendant cet événement, nous fournirons un soutien aux communautés pour ajouter les éléments manquants aux cartes. Ces données serviront pour le développement économique de la région ou tout simplement pour améliorer la circulation des habitants.

    • Soutenir l’accomplissement de projets de développement portés par des activistes locaux, parties prenantes de communautés OSM d’Afrique francophone, tout en créant du lien entre les différentes communautés (tant entre les communautés africaines qu’avec la France et l’international).

    • Promouvoir les activités des communautés d’Afrique francophone trop peu connues en France

    Comment ?

    Avec la plateforme de cartographie, OpenStreetMap (OSM, le Wikipédia des cartes) crée et fournit des données géographiques libres et collaboratives pour quiconque en aura besoin. Cet outil permet d'éditer des cartes routières, cyclables ou thématiques, mais permet aussi de compléter les zones qui ne sont pas encore cartographiées. Avec OSM il est possible d'ajouter routes, bâtiments ou cours d’eau, grâce à des images satellites il suffit d'un ordinateur, d'une souris et d'une connexion internet

    Le programme de la soirée

    Plus d’information sur les autres projets sur CartONG.org

    Au programme

    • 18h30 accueil des participants
    • 18h40 Mots de bienvenue, présentation du projet Missing Maps et du déroulement de la soirée
    • 18h50 Présentation de la contribution dans OSM
    • 19h00 Cartographions
    • 21:30 Fin du mapathon, conclusion sur les contributions de la soirée

    1 rue Jean Réchatin, 42000 Saint-Etienne, France à l'OpenFactory

    Entrée gratuite sur inscription

    Venez nombreux, et n'oubliez pas d'apporter votre ordinateur portable, et souri(re)s

    [QC Montréal] AGA 2017 de l'Association Drupal de Montréal / General Assembly 2017 of the Montreal Drupal Association - Le mardi 14 novembre 2017 de 18h30 à 20h30.

    Le 14 novembre 2017 à 18h30 se tiendra, dans les bureaux de Cossette (2100, rue Drummond, Montréal), l'assemblée générale de l'Association Drupal de Montréal. L'assemblée est un événement public, membres et non membres peuvent y assister. Tout le monde est invité à assister à cette assemblée qui aidera à définir des pistes d'actions pour l'année à venir, tout en partageant une pizza ainsi que des rafraîchissements.
    The Montreal Drupal Association will be holding its General Assembly on november 14th, 2017 at 18:30 at Cossette (2100 Drummond Street, Montréal). All members and non-members are invited to attend this meeting which will help shape the coming year and be a good chance to discuss around some pizza and refreshments.
    L'association a pour objectif d'aider et de soutenir la communauté Drupal de Montréal, principalement via l'organisation d'événements Drupal à Montréal, dont le DrupalCamp Montréal.

    [FR Paris] Lancement de la campagne de dons de La Quadrature du Net - Le mardi 14 novembre 2017 de 19h00 à 23h59.

    Rejoignez-nous pour un moment convivial, qui marquera le début de notre campagne de soutien annuel

    Nous y présenterons le travail effectué, les projets futurs, et il y aura quelques petites surprises

    [QC Montréal] Rencontre du Libre - Le mardi 14 novembre 2017 de 19h30 à 21h00.

    Rencontre du Libre organisée par le Club Linux Atomic (CLA)Programmation de la rencontreCette prochaine rencontre du libre se déroulera le mardi 14 novembre 2017, de 19:30 à 21:00 heures au Café de Da, située au 545 Rue Fleury Est, Montréal, QC H3L 2E5.
    Déroulement de la rencontre :
    Accueil.Mot de bienvenue et explications sur le déroulement de la rencontre. Présentation des membres.

    [FR Le Mans] Permanence Linuxmaine - Le mercredi 15 novembre 2017 de 12h00 à 13h00.

    ATTTENTION Cet événement est annoncé de façon automatique. Les fermetures exceptionnelles seront annoncée sur notre site internet.

    L'association de promotion et de découverte du en Sarthe, Linuxmaine, tient une permanence les mercredis de 12h00 à 13h00.

    Celle ci est ouverte à tous, membres de l'association ou non.

    On peut s'y informer sur le, les découvrir, en tester, amener sa machine pour une installation ou simplement se retrouver pour discuter.

    Entrée Libre.

    [QC Montréal] Contribuer à Wikipédia (UQAM) - Le mercredi 15 novembre 2017 de 13h00 à 15h00.

    L’objectif de cette formation est de se familiariser avec le fonctionnement de l’encyclopédie collaborative en libre accès la plus utilisée dans le monde en pénétrant dans l’arrière-boutique où écrivent les wikipédistes.
    Après une brève présentation historique et sociologique de Wikipédia, la formation se propose de passer en revue les principales rubriques et mécanismes de fonctionnement de l’encyclopédie.
    Les participant.e.s qui le souhaitent pourront, dans la dernière portion de l’activité, s’initier à l’écriture encyclopédique à proprement dit. Ceux et celles qui désirent créer une ébauche (nouvel article) ou modifier un article existant sont invités à se documenter avant la formation.

    [FR Montpellier] DigiWorld Week - Le mercredi 15 novembre 2017 de 16h00 à 19h00.

    ***{::}Jerry-Party - Donner une seconde vie à votre informatique, un avenir pour l’Afrique* (30 places sur inscription)

    Investing in our Digital Future

    Entrée libre sur inscriptions

    • Une Jerry-Party se fait avec tout public adultes et (ou) enfants. Elle permet de lutter contre l’obsolescence programmée matérielle et logicielle, de comprendre le contenu d’un ordinateur, d’apprendre à monter un ordinateur et de bénéficier gratuitement d’un ordinateur qui fonctionne grâce à des éléments récupérés.

    Cet événement vous est proposé dans le cadre du partenariat qui lie la Région Occitanie, La Gazette Café, la French Tech, Montpellier Méditerranée Métropole, DigitalPlace, FrenchSouth, DigiWorld Week, Sud de France Développement, l’Idate et Montpel’libre.

    Mercredi 15 novembre 2017 de 16h00 à 19h00
    Salle de conférence Hôtel French Tech - 1, place Francis Ponge 34000 Montpellier

    French Tech Tramway lignes 1 et 2 arrêt Comédie
    GPS Latitude 43.60902 | Longitude 3.88406
    Carte OpenStreetMap

    [FR Callian] Linux et les Logiciels Libres - Le mercredi 15 novembre 2017 de 18h00 à 21h00.

    Venez découvrir Linux et les logiciels libres, mais aussi vous faire aider avec votre matériel informatique quel qu'il soit, imprimante, box, tablette, smartphone y compris.

    Cette année, nos objectifs évoluent, c'est à dire les logiciels libres restent comme l'objectif principal, mais aussi d'aider les gens avec leur matériel informatique quel qu'il soit, imprimante, box, tablette smartphone y compris.

    Venez avec vos machines même sous Windows ou Mac/os, nous ne vous laisserons pas tomber, nous considérons, que vous n'êtes pas responsable de l'hégémonie commerciale des produits non libres.

    Mais pourquoi venir aux réunions
    1°) Découvrir, Essayer, Installer Linux
    2°) Régler vos problèmes Windows ou Mac

    Venez nombreux, même par curiosité Les animateurs seront heureux de vous accueillir et nous insistons.

    L'accès est totalement libre et gratuit

    Merci de vous inscrire par mail et d'indiquer le soucis à régler si besoin.

    [FR Anzin] Café Vie Privée - Le mercredi 15 novembre 2017 de 18h00 à 20h00.

    POP Place Valenciennes organise son troisième Café Vie Privée sur Valenciennes !

    Au programme de cette soirée installation et configuration de TOR, découverte des bonnes extensions web, gèrer sa vie privée et ses données sur internet (entre autres).

    Plus d'informations sur les Café Vie Privée sur http://pop.eu.com/popplacevalenciennes/2017/09/11/pourquoi-venir-a-nos-cafes-vie-privee/

    P.S n'oubliez pas de venir avec votre smartphone et/ou votre ordinateur pour participer activement à nos ateliers)

    [FR Toulouse] Mapathon pendant l'OSMGeoWeek - Le mercredi 15 novembre 2017 de 18h30 à 21h30.


    DESCRIPTION

    Venez nous aider à cartographier sur OpenStreetMap, la carte du monde collaborative et libre pendant l’OSMGeoWeek

    CartONG, Magellium et HarryCow Coworking vous invitent à un mapathon pour découvrir la cartographie participative et humanitaire dans OpenStreetMap pas besoin d'être un expert, c'est accessible à tout le monde

    OSMGeoweek

    OpenStreetMap Geography Awareness Week (OSMGeoWeek), est le festival international de sensibilisation à la cartographie sur OpenStreetMap. Il se déroule cette année, du 13 au 19 novembre

    Ce festival rassemble l’ensemble des organisations humanitaires, organismes privés, institutions, individus et communautés qui souhaitent sensibiliser à OSM, et faire découvrir cette base de données au plus grand nombre.

    Pourquoi

    On peut penser qu'aujourd'hui toutes les parties du monde sont cartographiées, mais en réalité de nombreuses régions ne possèdent encore aucune carte. Pendant cet événement, nous fournirons un soutien aux communautés pour ajouter les éléments manquants aux cartes. Ces données serviront pour le développement économique de la région ou tout simplement pour améliorer la circulation des habitants.

    • Soutenir l’accomplissement de projets de développement portés par des activistes locaux, parties prenantes de communautés OSM d’Afrique francophone, tout en créant du lien entre les différentes communautés (tant entre les communautés africaines qu’avec la France et l’international).

    • Promouvoir les activités des communautés d’Afrique francophone trop peu connues en France

    Comment ?

    Avec la plateforme de cartographie, OpenStreetMap (OSM, le Wikipédia des cartes) crée et fournit des données géographiques libres et collaboratives pour quiconque en aura besoin. Cet outil permet d'éditer des cartes routières, cyclables ou thématiques, mais permet aussi de compléter les zones qui ne sont pas encore cartographiées. Avec OSM il est possible d'ajouter routes, bâtiments ou cours d’eau, grâce à des images satellites il suffit d'un ordinateur, d'une souris et d'une connexion internet

    Le programme de la soirée

    Nous vous proposons de découvrir comment contribuer à OpenStreetMap durant un mapathon.

    Cartographier plus précisément la ville permettra également à terme de fournir des informations comme l’emplacement des centres de santés, les pharmacies, les administrations et chaque lieux importants pour la vie des habitants de Bamako.

    Plus d’information sur les autres projets sur CartONG.org

    Au programme

    • 18:30 h accueil des participants
    • 18:40 h Mots de bienvenue, présentation du projet Missing Maps et du déroulement de la soirée
    • 18:50 h Présentation de la contribution dans OSM
    • 19 h Cartographions
    • 21:30 h Fin du mapathon, conclusion sur les contributions de la soirée

    Au HarryCow Coworking, 13 rue Sainte Ursule, 31000, Toulouse

    Entrée gratuite sur inscription

    Venez nombreux, et n'oubliez pas d'apporter votre ordinateur portable, et souri(re)s

    [FR Grenoble] Mapathon pendant l'OSMGeoWeek - Le mercredi 15 novembre 2017 de 18h30 à 21h30.

    DESCRIPTION

    Venez nous aider à cartographier sur OpenStreetMap, la carte du monde collaborative et libre pendant l’OSMGeoWeek

    CartONG et Scop La Péniche vous invitent à un mapathon pour découvrir la cartographie participative et humanitaire dans OpenStreetMap pas besoin d'être un expert, c'est accessible à tout le monde

    OSMGeoweek

    OpenStreetMap Geography Awareness Week (OSMGeoWeek), est le festival international de sensibilisation à la cartographie sur OpenStreetMap. Il se déroule cette année, du 13 au 19 novembre

    Ce festival rassemble l’ensemble des organisations humanitaires, organismes privés, institutions, individus et communautés qui souhaitent sensibiliser à OSM, et faire découvrir cette base de données au plus grand nombre.

    Pourquoi

    On peut penser qu'aujourd'hui toutes les parties du monde sont cartographiées, mais en réalité de nombreuses régions ne possèdent encore aucune carte. Pendant cet événement, nous fournirons un soutien aux communautés pour ajouter les éléments manquants aux cartes. Ces données serviront pour le développement économique de la région ou tout simplement pour améliorer la circulation des habitants.

    • Soutenir l’accomplissement de projets de développement portés par des activistes locaux, parties prenantes de communautés OSM d’Afrique francophone, tout en créant du lien entre les différentes communautés (tant entre les communautés africaines qu’avec la France et l’international).

    • Promouvoir les activités des communautés d’Afrique francophone trop peu connues en France

    Comment ?

    Avec la plateforme de cartographie, OpenStreetMap (OSM, le Wikipédia des cartes) crée et fournit des données géographiques libres et collaboratives pour quiconque en aura besoin. Cet outil permet d'éditer des cartes routières, cyclables ou thématiques, mais permet aussi de compléter les zones qui ne sont pas encore cartographiées. Avec OSM il est possible d'ajouter routes, bâtiments ou cours d’eau, grâce à des images satellites il suffit d'un ordinateur, d'une souris et d'une connexion internet

    Le programme de la soirée

    Nous vous proposons de découvrir comment contribuer à OpenStreetMap durant un mapathon.

    Cartographier plus précisément la ville permettra également à terme de fournir des informations comme l’emplacement des centres de santés, les pharmacies, les administrations et chaques lieux importants pour la vie des habitants de Bamako.

    Au programme

    • 18h30 accueil des participants
    • 18h40 Mots de bienvenue, présentation du projet Missing Maps et du déroulement de la soirée
    • 18h50 Présentation de la contribution dans OSM
    • 19h00 Cartographions
    • 21:30 Fin du mapathon, conclusion sur les contributions de la soirée

    31 Rue Gustave Eiffel, 38000, Grenoble, France, La Scop la Péniche

    Entrée gratuite sur inscription

    Venez nombreux, et n'oubliez pas d'apporter votre ordinateur portable, et souri(re)s

    [FR Rennes] Cartopartie humanitaire sur Bamako - Le mercredi 15 novembre 2017 de 20h00 à 23h00.

    Dans le cadre de la OSM Geo Week, le groupe OSM 35 vous propose de cartographier le Mali et notamment Bamako sur OpenStreetMap afin d'aider les communautés locales.

    Découvrez comment contribuer, et participez activement à renseigner la carte avec nous.

    L'inscription (recommandée) à l'évènement est à faire sur EventBrite.

    Avec le soutien de et

    [FR Paris] Apéro Parisien du Libre - Le mercredi 15 novembre 2017 de 20h00 à 23h00.

    Tous les 15 du mois, Parinux vous convie à l'Apéro Parisien du Libre (APL). Cet événement informel et convivial réunit les personnes intéressées par le monde du Libre.

    Pour le 15 novembre nous vous donnons rendez-vous au Brewberry Bar à partir de 20h pour échanger autour du Libre avec les bénévoles de l'association Parinux qui tiendra à cette occasion une "réunion membres".

    Tou.te.s sont les bienvenu.e.s, qu'ils/elles soient membres ou non, que ce soit pour découvrir l'association, se renseigner sur ses activités, ou simplement partager un bon moment avec d'autres bénévoles du Libre

    [FR Orléans] Cartographier avec OpenStreetMap - Le mercredi 15 novembre 2017 de 20h30 à 22h30.

    [FR Toulouse] Rencontre Tetalab - Le mercredi 15 novembre 2017 de 21h00 à 23h00.

    Rencontre hebdomadaire des hackers et artistes libristes Toulousains.

    Ouvert au public tous les mercredi soir.

    Venez nombreux.

    [FR Digne-les-Bains] Cartopartie Libre information sur les services de santé, tous acteurs, tous concernés - Le jeudi 16 novembre 2017 de 09h00 à 18h00.

    L'ADRETS, en partenariat avec APITUX et avec le soutien de la fondation AFNIC travaille sur la cartographie participative des services au public.

    Dans ce cadre, nous organisons une journée cartopartie des services sur le thème de la santé, jeudi 16 novembre 2017 de 9h à 18h à Digne.

    Il s'agit d'animer un atelier afin d'enrichir OpenStreetMap avec l'offre de santé sur le territoire puis d'en tirer des cartes et un annuaire.

    Les visiteurs pourront parcourir l'atelier juste pour découvrir les outils et la démarche ou s'installer plus longuement pour contribuer en étant accompagnés par des experts.

    De 15h à 16h, une table ronde rassemblera les participants autour du thème « Libre information sur les services de santé, tous acteurs, tous concernés ».

    Cet événement est hébergé à Digne par le Lycée Pierre Gilles de Gennes dans le cadre de son Salon domotique santé.

    Il s'inscrit également dans la semaine de sensibilisation OSMGEOWEEK qui propose aux contributeurs partout dans le monde de se regrouper pour créer des cartes avec OpenStreetMap.

    Participation libre et gratuite pour tous.

    [FR Montpellier] DigiWorld Week - Le jeudi 16 novembre 2017 de 16h00 à 18h00.

    ***{::}Conférence grand public - L’avenir une informatique libre à la portée de tous* (150 places sur inscription)

    Investing in our Digital Future

    Entrée libre sur inscriptions

    • Conférence : le langage de l’informatique et de l’informatique libre vulgarisé pour le grand public.

    Cet événement vous est proposé dans le cadre du partenariat qui lie la Région Occitanie, La Gazette Café, la French Tech, Montpellier Méditerranée Métropole, DigitalPlace, FrenchSouth, DigiWorld Week, Sud de France Développement, l’Idate et Montpel’libre.

    Jeudi 16 novembre 2017 de 16h00 à 18h00
    Auditorium Médiathèque Émile Zola - 240, rue de l’Acropole 34000 Montpellier

    Médiathèque Émile Zola Tramway ligne 1, arrêt Léon Blum
    GPS Latitude 43.60840 | Longitude 3.89330
    Carte OpenStreetMap

    [FR Martigues] Découvrir les Logiciels Libres - Le jeudi 16 novembre 2017 de 16h30 à 18h30.

    L'association ULLM (les Utilisateurs de Logiciels Libres du Pays Martégal) en collaboration avec EPN Martigues vous présente le programme de ses ateliers.

    Le jeudi de 1{::}6{::}h{::}3{::}0 à 1{::}8{::}h30

    Découverte des Logiciels Libres.

    [FR Montpellier] Aprilapéro - Le jeudi 16 novembre 2017 de 18h18 à 20h20.

    Un apéro April consiste à se réunir physiquement afin de se rencontrer, de faire plus ample connaissance, d’échanger, de partager un verre et de quoi manger mais aussi de discuter sur l’actualité et les actions de l’April.

    Un apéro April est ouvert à toute personne qui souhaite venir, membre de l’April ou pas. N’hésitez pas à venir nous rencontrer.

    Nous vous invitons donc à venir nous rejoindre dans une ambiance conviviale, à partager cet apéro, chacun porte quelque chose, boissons, grignotages… et on partage.

    Au programme des discussions

    • LoRdi Région Libre, renommé en MCNL pour Mon Cartable Numérique du Lycéen
    • référentiel Prestataires avec la CCI
    • pack Logiciels Libres CCI
    • échanger des expériences
    • discussions libres
    • échanges d’idées
    • faire un bilan des événements passés
    • faire des perspectives pour les actions futures
    • tout simplement, passer un moment convivial

    Entrée libre et gratuite sur inscription.

    Les Aprilapéro Montpellier auront lieu le 3e jeudi de chaque mois

    Jeudi 19 octobre 2017 de 18h18 à 20h20
    Jeudi 23 novembre 2017 de 18h18 à 20h20
    Jeudi 21 décembre 2017 de 18h18 à 20h20
    Jeudi 18 janvier 2018 de 18h18 à 20h20
    Jeudi 15 février 2018 de 18h18 à 20h20
    Jeudi 15 mars 2018 de 18h18 à 20h20
    Jeudi 19 avril 2018 de 18h18 à 20h20
    Jeudi 17 mai 2018 de 18h18 à 20h20
    Jeudi 21 juin 2018 de 18h18 à 20h20

    Le Faubourg - 15, rue du Faubourg de Nîmes, 34000 Montpellier

    [FR Bordeaux] Jeudi Giroll - Le jeudi 16 novembre 2017 de 18h30 à 20h30.

    Les membres du collectif Giroll, GIROnde Logiciels Libres, se retrouvent une fois par semaine, pour partager leurs  savoir-faire et expériences autour des logiciels libres.

    Le collectif réalise aussi une webradio mensuelle, tous les second mardis du mois, à retrouver en direct sur le site de Giroll.

     Ses rencontres sont ouvertes à tous.

    [FR Lyon] Install Party - Le jeudi 16 novembre 2017 de 19h00 à 21h00.

    SESSION SUR LE NUMÉRIQUE LIBRE à la MJC de Confluence - Install Party

    Tout publique

    Gratuit

    Deuxième cycle de la sessions Découverte du numérique libre à la MJC de Confluence.

    Suite à la conférence du 18 octobre, la session Découverte du numérique libre se poursuit avec une Install Party pour libérer complètement ou partiellement son ordinateur pour choisir son mode de transition, se faire aider et conseiller dans l'installation de logiciels libres et de systèmes GNU/Linux.

    Inscription obligatoire: https://mjcconfluenceenvironnement.wordpress.com/portfolio/Installparty/

     Quatre RAISONS DE VENIR
    - Adieu virus et logiciels espions
    - (Re-) partir du bon pied avec l'informatique
    - L'ordinateur en mode convivial
    - Réunir informatique et éthique

    La session suivante se fait le 13 décembre à 19h pour un atelier Bidouilles

    13 décembre 19h00 Bidouille une zone libre pour échanger sur vos expériences et vos retours suite à l'install party Les trucs à ajuster, les perles à découvrir, les moyens de progresser.
    Inscription obligatoire https://mjcconfluenceenvironnement.wordpress.com/portfolio/bidouille/
    Gratuit

    [FR Paris] De l'idée au site web avec Silex - Le jeudi 16 novembre 2017 de 19h00 à 21h00.

    Vous avez une idée, un projet, une passion ou même envie de mettre votre CV en ligne Vous êtes auto-entrepreneur, vous êtes votre propre patron, vous souhaitez parler de ce que vous aimez ou vous voulez tout simplement prouver à votre futur employeur que vous êtes fait pour ce job

    Ce 16 Novembre Ziggourat Formation accueille Silex Labs et sa formule Do It Yourself afin de vous initier à la création de page web par la pratique.

    En 2 heures nous ferons ensemble votre site à partir d’un modèle Silex. Et nous verrons de nombreuses astuces pour faire des sites professionnels sans frais, et légalement

    – Passer d’une idée à une page web
    – Photos creative commons
    – Hébergement sur github ou netlify

    L’atelier sera suivi d’un apéro et nous invitons nos membres professionnels du web ou du design à échanger avec les participants.

    Pré-requis

    Aucun pré-requis n’est nécessaire. Venez avec votre bonne humeur et votre soif d’apprendre. L’idéal est de venir avec son PC portable.

    A propos de Silex

    Silex est un logiciel libre et gratuit qui vous permet de réaliser vos sites internet en toute liberté et de garder le contrôle total de vos données (interopérabilité, pas de “lock-in”, pas de freeware, propriété des données).

    Silex est un éditeur de sites web en ligne, libre et gratuit qui compte des milliers d’utilisateurs dans le monde. On en parle même dans la presse.

    Quelle que soit votre niveau vous pourrez réaliser un site Internet. Il permet de réaliser des sites internet sans avoir besoin de savoir coder. Mais il permet aussi de commencer facilement à mettre les doigts dans le code de façon ludique.

    Silex est fait pour vous quelles que soient vos compétences

    • si vous ne savez pas coder le mode wysiwyg (what you see is what you get) vous permettra de faire votre site sans écrire une ligne de code.
    • si vous êtes designer vous pourrez facilement faire du prototypage et vous serez libre pour créer en partant d’une page blanche
    • si vous voulez vous mettre code silex vous offre des éditeurs Html, CSS ou javascript pour commencer à coder petit à petit
    • si vous êtes développeur vous pourrez ajouter vous même de nouvelles fonctionnalités au code source disponible sur github.

    • Ziggourat Formation, 32 rue de Paradis, Paris, Île-de-France, France

    • Adresse web https://www.silexlabs.org/event/de-lidee-a-pratique-creer-site-silex

    • Tags
      webdesign, marketing, opensource, websitebuilder, silex

    [FR Paris] Soirée de Contribution au Libre - Le jeudi 16 novembre 2017 de 19h30 à 22h30.

    Parinux propose aux utilisateurs de logiciels libres de se réunir régulièrement afin de contribuer à des projets libres. En effet, un logiciel libre est souvent porté par une communauté de bénévoles et dépend d'eux pour que le logiciel évolue.

    Nous nous réunissons donc tous les dans un environnement propice au travail (pas de facebook, pas de télé, pas de jeux vidéos, pas de zombies).

    Vous aurez très probablement besoin d'un ordinateur portable, mais électricité et réseau fournis.

    En cas de difficulté, vous pouvez joindre un des responsables de la soirée, Emmanuel Seyman (emmanuel (at) seyman.fr), Paul Marques Mota mota (at) parinux.org, ou Magali Garnero (Bookynette) tresorier (at) parinux.org.

    Pour obtenir le code d'entrée de la porte cochère, envoyez un mail au responsable.

    On peut amener de quoi se restaurer (Franprix, 8 rue du Chemin Vert, ferme à 22h)

    Regazouillez sur Twitter - Wiki des soirées

    Programme non exhaustif

    • Fedora (sa traduction)
    • Parinux, ses bugs et son infrastructure
    • April, … y a toujours quelque chose à faire
    • Open Food Facts/ Open Beauty Facts, sa base de données, ses contributeurs, sa roadmap
    • Schema racktables, son code
    • Agenda du Libre, mise à jour et amélioration du code
    • Ubuntu-Fr, son orga, ses événements
    • En vente libre, maintenance et commandes
    • Open street map, une fois par mois
    • Linux-Fr sait faire
    • en vente libre

    tout nouveau projet est le bienvenu.

    [FR Chambray-lès-Tours] Code et robots / Découverte - Le jeudi 16 novembre 2017 de 20h00 à 22h00.

    Code810, ensemble d'activités réservées aux enfants de 8 à 10 ans, enfin révélé aux adultes

    Depuis 2014, l'Amic propose des activités de coding (programmation) aux enfants de 8 à 10 ans. 

    D'où le nom coding + 8 à 10 ans = code810.

    Mais nous réfléchissons à faire évoluer ce nom code777, voire code799

    Depuis mai dernier nous avons commencé à intervenir dans les écoles élémentaires (niveau CM2) et même, à un moindre degré, dans les écoles maternelles.

    Que faisons-nous avec les enfants

    De l'initiation à la programmation, de la découverte de l'électronique et de la robotique. Tout cela au travers d'activités ludiques.

    Mais bien des adultes ignorent tout de ce que ce font ces tès jeunes grâce à l'Amic, y compris quelquefois leurs propres parents.

    Cette soirée à thème est justement là pour y remédier. 

    Vous deviendrez le temps d'une soirée programmeur en Scratch et en Blockly.
    Vous monterez des circuits électroniques que vous piloterez à partir de votre ordinateur.
    Vous programmerez des robots analogues aux robots tondeuses à gazon ou aux robots aspirateurs.

    Comme d'hab, inscrivez-vous à cette soirée. Le nombre de places dans notre espace ADA* est limité à 20

    FORMULAIRE d'INSCRIPTION

    [FR Le Port] Carto Partie des initiatives ESS de La Réunion - Le vendredi 17 novembre 2017 de 08h30 à 16h30.

    Open Atlas, en partenariat avec l'association Agame propose aux citoyens au cours d'une journée de partage et d'échange de créer de manière collaborative une carte interactive des initiatives de l'ESS de leur territoire.

    Les données seront disponible en open data et visualisables sur le réseau sociétal libre communecter.org.

    [QC Montréal] 1er Cartathon d’OMG McGill - Le vendredi 17 novembre 2017 de 14h30 à 17h00.

    Cherches-tu à mettre en pratique tes compétences en cartographie et à contribuer à la résilience?
    Rejoins-nous le vendredi 17 novembre à 14h30, nous tiendrons notre premier cartathon au Centre d’Informations Géographiques (GIC), pizza comprise! Nous allons vous apprendre à cartographier la ville de Williams Lake (C.-B.), dans le cadre de l’initiative « Building Canada 2020 ». Les feux de forêt ont lourdement affecté la ville cet été. Les données cartographiques que nous produirons aideront les forces d’intervention et les organisations d’urgence à mieux localiser et aider les résidents de Williams Lake à l’avenir.
    Les contributeurs débutants comme expérimentés sont tous les bienvenus pour rejoindre l’Open Mapping Group McGill (groupe cartographique ouvert à McGill, OMG McGill) durant le cartathon. Quelques machines seront à votre disposition, mais amenez votre ordinateur portable équipé d’une souris si vous le pouvez. Remarque: l’introduction sera principalement en anglais, mais il y aura aussi quelques participants qui pourront t’aider en français.

    [FR Toulouse] Before du Capitole du Libre - Le vendredi 17 novembre 2017 de 16h00 à 19h00.

    Le Capitole du Libre se déroulera du samedi 18 novembre 2017 au dimanche 19 novembre 2017
    Site officiel https://2017.capitoledulibre.org
    Lieu INP-ENSEEIHT, 2 rue Charles Camichel, 31000 Toulouse

    À cette occasion, la Médiathèque Empalot en profite pour organiser une table ronde suivie d'un atelier le vendredi 17 novembre.

    Magali Garnero, alias Bookynette y participera

    • à 16h Table ronde Au-delà des GAFAM* un autre monde informatique est-il possible avec Magali Garnero de l'APRIL, Pouhiou de Framasoft et Guillaume Gasnier de Toulibre Ces dernières années la concentration des acteurs informatiques s'est accélérée, et avec elle la centralisation des données de millions d'utilisateurs par les GAFAM*. Leurs services en ligne extrêmement pratiques nous rendent dépendants au point de représenter une menace pour nos libertés. Face à ce danger croissant, les acteurs historiques du logiciel libre inventent un monde numérique éthique fondé sur le partage et la coopération.
    • 17h30 Atelier désintox Passez aux logiciels libres et éthiques avec Bookynette de l'APRIL, Pouhiou de Framasoft et Guillaume Gasnier de Toulibre Cette séance vous permettra d'identifier et de de tester des alternatives aux logiciels et services des GAFAM que vous utilisez au quotidien avec 3 spécialistes des solutions libres.

    Venez nous rencontrer

    [FR Montpellier] Les logiciels libres, parlons-en - Le vendredi 17 novembre 2017 de 17h00 à 19h00.

    Le Faubourg Marché, qu’est-ce que c’est

    Le Faubourg Marché est une permanence partagée qui permet aux associations d’accueillir ensemble, les publics de ces associations une fois par semaine, le vendredi entre 17h00 et 19h00, au 19, rue du Faubourg de Nîmes, 34000 Montpellier.

    Proposition de programme

    • discussions autour de l’organisation d’événements
    • gestion des groupes de travail
    • propositions diverses
    • présentation de l’asso

    Alors, si vous avez un peu de temps le vendredi soir, voici une occupation qui me semble très intéressante.
    Montpel’libre est une association et un groupe d’utilisateurs (GULL), qui propose une multitude d’activités dans le cadre de la promotion des logiciels libres, et des Communs.

    Depuis longtemps déjà, Montpel’libre participe à l’économie sociale et solidaire en organisant tout un éventail d’ateliers et de manifestations, au développement durable et à l’innovation sociale au travers de permanences et ateliers de présentations des logiciels libres et évidement les cartoparties, véritable actions citoyennes, sur le thème de l’accessibilité des personnes en situation de handicap.

    L’activité économique, l’intérêt collectif, le fonctionnement démocratique, autant d’éléments que porte Montpel’libre, en proposant un accès entièrement libre et gratuit à une éducation populaire, au travers de ses ateliers à destination de tous les publics.

    Les logiciels libres parlons-en Ouvrons le dialogue sur l’ouverture des données Partageons nos expériences pour une meilleure transmission des connaissances.

    Ces permanences sont suivies d’un Apéro refaire le monde convivial et partagé, de 18h30 à 21h30. Elles ont lieu au Faubourg marché, tous les vendredis de 17h00 à 19h00

    • vendredi 3 novembre 2017 de 17h00 à 19h00
    • vendredi 10 novembre 2017 de 17h00 à 19h00
    • vendredi 17 novembre 2017 de 17h00 à 19h00
    • vendredi 24 novembre 2017 de 17h00 à 19h00

    Entrée libre et gratuite sur inscription. Une simple adhésion à l’association est possible.

    Cet événement est proposé dans le cadre du partenariat qui lie le Faubourg Marché et Montpel’libre.

    Vendredis 3, 10, 17 et 24 novembre 2017 de 17h00 à 19h00
    Le Faubourg - 15, rue du Faubourg de Nîmes, 34000 Montpellier

    [FR Antibes] Rencontre Accès Libre (RAL) - Le vendredi 17 novembre 2017 de 18h00 à 21h00.

    Certains les appellent install party, d’autres encore Soirées Linux, mais les Rencontres Accès Libre sont tout cela en même temps, et bien plus encore.

    C'est l’occasion de

    • discuter, échanger, expliquer
    • installer des logiciels libres
    • et, toute autre idée coopérative de solidarité à but non lucratif

    Entrée Libre. Tout Public

    [FR Strasbourg] Réunion mensuelle ouverte d'ARN - Le vendredi 17 novembre 2017 de 18h00 à 22h00.

    ARN vous accueil un vendredi par moi pendant le Stammtisch du Hackstub

    Dans ces réunions
    • nous accueillons des visiteur-se-s qui veulent en savoir plus sur notre démarche ou apprendre à nous connaître
    • nous évoquons les sujets actuels relatifs à l'association et au numérique autour de Strasbourg
    • nous faisons le point tous-toutes ensemble sur l'avancée des projets de l'association et des projets associatifs environnants
    • nous profitons de ces instants pour faire avancer les projets de l'association sous forme de groupes de travail ouverts.

    Ces réunions se concluent par un repas convivial à l'extérieur.
    Ces réunions sont ouvertes à tout le monde, membre d'ARN ou non. Pas d'inscription préalable.

    N'hésitez pas à venir échanger avec nous

    [FR Ambérieu-en-Bugey] Mapathon pendant l'OSMGeoWeek - Le vendredi 17 novembre 2017 de 18h00 à 23h00.

    DESCRIPTION

    Venez nous aider à cartographier sur OpenStreetMap, la carte du monde collaborative et libre pendant OSMGeoWeek CartONG, et la MJC d'Ambérieu vous invitent à un mapathonMissing Maps pour découvrir la cartographie participative et humanitaire dans OpenStreetMap pas besoin d'être un expert, c'est accessible à tout le monde

    OSMGeoWeek

    OpenStreetMap Geography Awareness Week (OSMGeoWeek), est le festival international de sensibilisation à la cartographie sur OpenStreetMap. Il se déroule cette année, du 13 au 20 novembre

    Ce festival rassemble l’ensemble des organisations humanitaires, organismes privés, institutions, individus et communautés qui souhaitent sensibiliser à OSM, et faire découvrir cette base de données au plus grand nombre.

    Pourquoi

    L’objectif du projet Missing Maps est de créer des cartes pour les zones de crise des pays en voie de développement qui en ont le plus besoin. En effet, on peut penser qu'aujourd'hui toutes les parties du monde sont cartographiées, mais en réalité nombreuses régions ne possèdent encore aucunes cartes. L'objectif de Missing Maps est donc de cartographier toutes ces zones encore invisibles sur les cartes, pour permettre par la suite aux collectivités locales et acteurs de l'humanitaire de pouvoir agir plus efficacement en cas de crise.

    Nos objectifs

    • Soutenir l’accomplissement de projets de développement portés par des activistes locaux, parties prenantes de communautés OSM d’Afrique francophone, tout en créant du lien entre les différentes communautés (tant entre les communautés africaines qu’avec la France et l’international).

    • Promouvoir les activités des communautés d’Afrique francophone trop peu connues en France

    Comment

    Avec la plateforme de cartographie, OpenStreetMap (OSM, le Wikipédia des cartes) crée et fournit des données géographiques libres et collaboratives pour quiconque en aura besoin. Cet outil permet d'éditer des cartes routières, cyclables ou thématiques, mais permet aussi de compléter les zones qui ne sont pas encore cartographiées. Avec OSM il est possible d'ajouter routes, bâtiments ou cours d’eau, grâce à des images satellites il suffit d'un ordinateur, d'une souris et d'une connexion internet.

    Le programme de la soirée

    Nous vous proposons de découvrir comment contribuer à OpenStreetMap durant un mapathon.

    En septembre de 2017, ce dernier a tué 10 personnes et engendré le déplacement de 40 000 personnes.

    Au programme

    • 18h30 accueil des participants
    • 18h40 Mot de bienvenue, présentation du projet Missing Maps et du déroulement de la soirée
    • 18h50 Présentation de la contribution dans OSM
    • 19h00 Cartographions
    • Fin du Mapathon 21h30

    Où?

     01500 AMBÉRIEU EN BUGEY, France, La MJC d'Ambérieu

    Entrée gratuite sur inscription

    Venez nombreux, et n'oubliez pas d'apporter votre ordinateur portable, et souri(re)s

    [FR Lyon] Explorer nos mondes en chiffres - Le samedi 18 novembre 2017 de 09h30 à 12h30.

    Atelier gratuit - samedi 9h30 à 12h30

    Inscription obligatoire à epn@salledesrancy.com

    L’EPN des Rancy (249, rue Vendôme, 69003 Lyon) et Altercarto vous propose une série d’ateliers.

    L'objection est de construire une scène ouverte où l’on partage avec un public les résultats d’une exploration cartographique sur un thème choisi. Le groupe aura à composer avec différents champs qui peuvent être sociaux (disparités urbaines, mutation dans la ville, …), économiques (travailler en ville, …), cadre de vie (santé, …), etc. Nous proposons ainsi d’explorer l’intérêt d’une médiation cartographique pour apporter un éclairage collectif sur des situations ou des enjeux précis.

    Une réelle motivation à participer à un travail en commun et à explorer des cartes et des données dans une démarche d’enquête collective est recommandée.

    Cet atelier est ouvert à tous

    les dates Samedis 18 novembre, 16 décembre, 3 février (dans le cadre des expériences numériques), 28 avril, 26 mai

    Vous pouvez venir avec votre propre pc (sinon on vous le fournira).

    N'hésitez pas à venir nombreux.

    [FR Courbevoie] Atelier GNU/Linux DÉBUTANTS prise en main - Le samedi 18 novembre 2017 de 09h30 à 18h30.

    L'association StarinuX (GULL) a le plaisir de vous convier à l'atelier

    GNU/Linux DÉBUTANTS (prise en main du système)

    OU: 48 rue de Colombes 92400 Courbevoie (SNCF gare Courbevoie St Lazare <=> La Défense ou métro Pont de Levallois, puis bus 275, arrêt Stade.

    : le samedi 18 novembre 2017 de 9h30 à 18h30,

    PUBLIC: atelier pour ceux qui débutent sous Linux.

    PROGRAMME: installation, prise en main, bash console, modules (pilotes), choix du bureau, à la fin de l'atelier vous serez capable de poursuivre en autonomie.

    PRÉ-REQUIS: notions de partitionnement disque dur (outil gparted), des modules (pilotes), langage bash…

    TOUTES INFOS et PRÉ-INSCRIPTION: www.starinux.org/ateliers-sx.php

    MODALITÉS: comme à l'accoutumée, une participation de 20 (10 demandeurs d'emplois) est demandée, valable une année pour plus de 15 ateliers.

    FORMATEUR: Pascal Bessonneau, statisticien, administrateur-système Linux, membre du CA de l'association.

    Au plaisir de votre présence le 18 novembre, Bien à vous.

    Pascal Bessonneau

    [FR La Couronne] Permanence - accueil public - Le samedi 18 novembre 2017 de 10h00 à 13h00.

    Notre permanence d'accueil avec le sourire, le café et les gâteaux

    Lieu de rencontre et d'échange convivial pour discuter informatique et outils numériques.

    Cette association permet à chacun de découvrir également l'univers de Linux et par extension de tous les **logiciels* et matériels libres*.

    Entrée Libre. Tout Public.

    [FR Marseille] Repair Café Marseille - Le samedi 18 novembre 2017 de 10h00 à 12h00.

    Le samedi 18 novembre 2017, de 10h00 à 12h00, l’équipe du Repair Cafe Marseille vous accueillera pour réparer ensemble votre petit électroménager et l’informatique au Foyer du Peuple au 50 rue Brandis 13005.

    C’est la première fois ( et sûrement pas la dernière) que le bar ouvre ses portes pour un atelier de réparation organisé par le Repair Cafe Marseille.

    Alors à ceux pour qui jeter n’est pas une évidence, à ceux qui veulent partager un bon moment, à ceux qui viennent pour en apprendre plus sur leurs objets et tous les autres, je vous invite à vous inscrire en ligne et dans la partie commentaire en base de page de l’atelier.

    ATTENTION: max par thématique soit 20 places au total

    [FR Le Mans] Permanence Linuxmaine - Le samedi 18 novembre 2017 de 14h00 à 18h00.

    L'association de promotion et de découverte du logiciel libre en Sarthe, Linuxmaine, tient sa permanence de 14h à 18h.

    Exceptionnellement, la permanence du deuxième samedi de chaque mois est repoussée au 18 novembre pour cause de jour férié (11 novembre)

    Celle ci est ouverte à tous, membres de l'association ou non.

    On peut s'y informer sur le logiciel libre, les découvrir, en tester, amener sa machine pour une installation ou simplement se retrouver pour discuter.

    Entrée Libre.

    [FR Beauvais] Gérer un coffre-fort de mots de passe - Le samedi 18 novembre 2017 de 14h00 à 16h30.

    En collaboration avec la MAJI (Maison des Associations de la Jeunesse et des Initiatives), l'association Oisux propose des samedis du Libre à Beauvais au 28 rue de Gascogne. Formations gratuites.

    Gérer un coffre-fort de mots de passe.

    Inscription par le formulaire de l'association ou en appelant la Maji au 03 44 79 40 62

    Venez nombreux.

    Entrée Libre. Tous Public.

    [FR Hoenheim] Atelier Repair Café - Le samedi 18 novembre 2017 de 14h00 à 17h00.

    Echange, partage, réparation des techniciens seront à votre écoute et à votre service. Avec pause café.

    Participation libre suivant votre satisfaction.

    [FR Ivry sur Seine] Cours de l'Ecole du Logiciel Libre - Le samedi 18 novembre 2017 de 14h00 à 18h00.

    Présentation de l'E2L

    Quel est le rôle de l'école du logiciel libre

    Tout d'abord, ce n'est pas une école comme les autres. Elle n'a pas d'établissement fixe, pas de cours de récréation, pas de carte d'étudiant, ni de diplôme de fin d'année.

    Comme toutes les écoles, son rôle est d'apprendre à ses élèves les logiciels libres, c'est-à-dire

    • comment en trouver de bons parmi les nombreux sites qui en proposent,
    • comment en prendre possession en fonction des licences,
    • comment les installer en fonction de ses besoins,
    • comment les tester et les utiliser,
    • comment en comprendre le fonctionnement pour ensuite les modifier,
    • comment écrire ses propres logiciels libres.

    En fait, l'école du logiciel libre est une université populaire, comme celles qui ont vu le jour en France à partir du 19 ème siècle, et dont le but est de transmettre des connaissances théoriques ou pratiques à tous ceux qui le souhaitent. Et pour atteindre ce but, sa forme juridique est de type " association à but non lucratif ".

    Comment fonctionne l'école

    Cette école étant une association, elle possède, comme toutes les autres, un bureau, élu chaque année en assemblée générale, pour l'administrer. Mais elle a aussi des responsables pédagogiques dont le rôle est essentiel car ce sont eux qui établissent les programmes des cours en fonction des souhaits des adhérents, valident les candidatures des enseignants et affectent les sessions.

    Les membres du bureau et les responsables pédagogiques forment "l'encadrement de l'école ". Tous les membres "encadrants" doivent être membres de l'association.

    Les locaux où se déroulent les cours seront ceux que l'on veut bien nous prêter une salle des fêtes, un théâtre, une salle de réunion publique, un amphi dans une école publique, ou autre.

    Les thèmes des cours sont définis par les adhérents en fonction de leurs envies, de leurs besoins. Les cours sont ensuite décidés par les responsables pédagogiques de l'école en fonction des enseignants disponibles.

    Afin de permettre au plus grand nombre de participer et d'assister aux cours, les sessions se tiennent essentiellement le samedi. Une première de 9h à 12h30, et une autre de 14h à 17h30.

    Programme détaillé sur le site http://e2li.org

    [FR Martigues] Install Party - Le samedi 18 novembre 2017 de 14h00 à 17h00.

    L'association ULLM (les Utilisateurs de Logiciels Libres du Pays Martégal) en collaboration avec EPN Martigues vous présente une

    Le samedideà

    Venez installer un système totalement libre sur votre machine ou tester des configurations déjas installées.

    Une occasion de rencontrer des utilisateurs expérimentés de système ou de logiciels libres pour une installation correcte agrémentée de nombreux logiciels.

    Entrée Libre. Tout Public.

    [FR Castelnau-le-Lez] Ateliers d’initiation au développement web - Le samedi 18 novembre 2017 de 14h00 à 18h00.

     Tous les samedis et sur deux créneaux horaires de 14h à 16h pour les novices et de 16h à 18h pour les amateurs, nous vous proposons à nouveau l’atelier d’initiation au développement web, à la Mjc de Castelnau-le-Lez.

    Le but de cet atelier est de faire découvrir le métier de technicien développeur web PHP, partager ses connaissances et son savoir-faire dans le domaine.

    Les inscriptions se feront à la Mjc avec deux séances découverte.

    Programme novice

    • Comprendre les langages de balisage HTML et CSS
    • Utiliser les navigateurs pour inspecter son code
    • Comprendre l’algorithmique avec Javascript et PHP
    • Utiliser les frameworks jQuery et Bootstrap

    Programme amateur

    • Créer des pages dynamiques avec PHP
    • Apprendre l’AJAX
    • Envoyer des e-mail avec PHP
    • Créer un site web depuis un template et un framework PHP

    Prérequis (pour une réussite garantie)

    • Ordinateur portable
    • Motivation
    • Projet concret
    • Travail à la maison

    Pourquoi Lors des séances, chacun a besoin de sa machine pour faire les expériences et montrer les notions non acquise durant la semaine.

    Programmer c’est facile, mais ça demande de la patience et de la motivation, car il s’agira souvent de résoudre des casses-têtes et plus fréquemment encore de corriger ses propres erreurs.
    D’après l’expérience du formateur, le seul moyen d’accomplir ces taches, c’est d’avoir un projet, un objectif.

    Le nombre de places par séance est limité à 6 personnes. Cela permet d’être disponible pour tout le monde.
    Aussi, il sera demandé au bout de quelques semaines à ce que l’on soit vraiment intéressé par le sujet et d’avoir le temps de s’y investir. Ça serait dommage de partir en milieu d’année en laissant une chaise vide

    Attention Cette session de partage d’expérience n’a pas pour vocation de faire de vous des professionnels ou de faire concurrence à des programmes de formations diplômantes.

    Cette formation est juste proposée par un professionnel avec qui vous pourrez discuter et poser des questions en relation à votre projet web.

    Les Ateliers d’initiation au développement web ont lieu à la Mjc André Malraux de Castelnau-le-Lez, tous les samedis de 14h00 à 18h00, sauf périodes de vacances

    • samedi 11 novembre 2017
    • samedi 18 novembre 2017
    • samedi 25 novembre 2017

    Mjc Centre André Malraux 10, avenue de la Moutte, 34170 Castelnau-le-Lez

    [FR Ramonville-Saint-Agne] Atelier Galette - Le samedi 18 novembre 2017 de 14h00 à 18h00.

    Vous qui galérez depuis des années à gérer vos adhérents et à récupérer leurs cotisations, le PIC a la solution

    Venez découvrir Galette, le Gestionnaire d’Adhérents en Ligne Extrêmement Tarabiscoté mais Tellement Efficace.

    Ça se passe à Ramonville, Maison des Associations, SAMEDI  18 Novembre 2017 de 14h00 à 18h00.

    Rien à payer, tout à apprendre, inscription obligatoire (mail à picca@le-pic.org ou tel 06.76.08.88.39) , n'oubliez pas votre fidèle ordinateur… et si vous n'en avez pas prévenez-nous

    Pour se retirer de cette liste, cliquer ici mailto:pic-newsletter-unsubscribe@le-pic.org

    [FR Nantes] Permanence Linux - Le samedi 18 novembre 2017 de 15h00 à 18h00.

    Une permanence de Linux Nantes aura lieu de 15 à 18 heure,

    dans l’aile du local associatif "B17".

    Au cours de ces permanences, nous proposons des conseils, des installations ou des réparations.

    Vous pouvez aussi venir pour une première prise d'informations et de contacts.

    Pour vous rendre au local B17

    http://www.linux-nantes.org/Comment-se-rendre-au-local.html

    Notre site

    http://www.linux-nantes.org/

    [TN Hammam Sousse] Software Freedom Day Tunisia 2017 - Le dimanche 19 novembre 2017 de 09h00 à 17h00.

    L’association pour la Culture numérique Libre – CLibre, organise, en collaboration avec l’Ecole Supérieur des Sciences et de Technologie (ESST) de Hammam-Sousse la journée internationale de logiciels libres, « Software {::}Freedom Day 2017 » qui aura lieu le dimanche 19 novembre 2017 à l’ESST de Sousse.

    Cette douzième édition tunisienne, appelée « Software Freedom Day Tunisia », est organisée pour la cinquième année consécutive par l’association CLibre.

    Elle sera l’occasion pour les associations, les communautés et les clubs universitaires actifs dans les différents domaines des technologies du libre de se rencontrer, de partager leurs expériences dans le domaine et surtout de s’enrichir mutuellement avec les échanges d’idées entre nos jeunes issues des différentes institutions universitaire de la Tunisie.

    Le programme de la journée sera formé, en plus des rencontres entre activistes du libre, par un ensemble de conférences en relation avec les technologies libres ainsi que des concours.

    Rappelons que chaque année, depuis 2004, la communauté internationale d’utilisateurs des logiciels libres fête le « Software Freedom Day ».

    Cette fête est une manifestation mondiale annuelle instaurée dans le but d’initier le grand public aux logiciels libres par son utilisation personnelle, dans l’éducation, l’économie ou par les gouvernements.

    Ce but est aussi l’un des objectifs de l’association CLibre qui a pris en charge l’organisation de cette journée en Tunisie prenant la relève de plusieurs acteurs de la communauté tunisienne qui n’a cessé, depuis 2006, de célébrer cette journée à l’échelle nationale.

    Librement

    Lire les commentaires

  • Partage (Journaux LinuxFR)

    Salut 'nal,

    Je ne t'écris pas beaucoup, mais j'ai eu envie de partager ce lien avec toi
    http://www.alorsvoila.com/2017/08/31/tes-belle-tes-beau/

    ps : une utilisation pertinente de l'écriture inclusive selon moi (non?)

    Lire les commentaires

  • Jonathan Quayle Higgins III bronsonisé (Journaux LinuxFR)

    Bonjour Nal,

    c'est avec énormément de tristesse que j'apprends la disparition hier de l'acteur John Benedict Hillerman. Non, tu ne vois pas qui c'est ? Bon, alors un indice :

    Higgiiiiiiiins !

    C'est bon, c'est revenu ? Il s'agit bien de Higgins, de la série télévisée Magnum.

    La lecture de la page Wikipédia anglophone de l'acteur vaut le détour, entre autres car elle mentionne le travail d'accent réalisé par ce dernier pour la série, ce qui lui vaudra deux récompenses. Cela semble avoir été le rôle de sa vie.

    Et maintenant, qui va nourrir Zeus et Apollon ?

    Lire les commentaires

  • Seconde mise en demeure pour l'association LinuxFr (Dépêches LinuxFR)

    LinuxFr.org est au fil du temps devenu un site web francophone de référence sur le monde du libre et au-delà, qui traite en particulier de l'actualité du Logiciel Libre, en mode contributif, géré par une équipe bénévole, par et pour des libristes enthousiastes, et sans pub. Après plus de 19 ans d'existence, LinuxFr.org comporte plus de 99 000 contenus (dépêches, journaux, etc.) et plus de 1,7 million de commentaires.

    Le site dispose notamment d'une équipe de modération intervenant a priori (dépêches, sondages) ou a posteriori (journaux, forums, wiki, tags, commentaires). L'équipe suit des règles de modération, que nous ne manquons pas de rappeler régulièrement lorsque des commentaires ou contenus problématiques le nécessitent ou qu'une édition/suppression est faite. En tant que « service de communication au public en ligne édité à titre non professionnel au sens de l'article 6, III, 2° de la loi 2004-575 du 21 juin 2004 » par l'association LinuxFr, comme le stipulent nos mentions légales, le site dispose aussi d'un directeur de publication (en l'occurrence votre serviteur).

    Pour la seconde fois (premier cas en 2013, voir 1 et 2) dans l'histoire du site et de l'association, nous avons reçu une mise en demeure, cette fois-ci pour contrefaçon : un journal (promu ensuite en dépêche) plagierait des billets de blog. Les discussions antérieures et postérieures à la mise en demeure n'ayant pas permis d'aboutir à un accord, l'association s'attend à recevoir une assignation et à ce que l'affaire se tranche devant un juge.

    NdM. : nous vous demandons bien évidemment de garder un ton respectueux dans vos commentaires.

    Sommaire

    À but pédagogique

    De la même manière que pour nos diverses conférences lors d'événements libristes (par exemple aux RMLL 2012, LinuxFr.org, les réussites, les problèmes et les pistes d'amélioration) et que pour la première mise en demeure, nous estimons que porter à la connaissance des visiteurs du site les problèmes auxquels nous sommes confrontés permet de les formuler, d'en prendre et faire prendre conscience, d'en discuter et d'essayer de trouver des solutions.

    Nous publions donc ici-même la mise en demeure pour vous permettre de consulter une telle lettre, de voir les formulations d'un cabinet d'avocats, son action pour son client, de voir les liens que nous avons collectés pour traiter le sujet et pour échanger le plus largement possible avec vous sur d'autres liens, d'autres réactions possibles, etc.

    Version image de la mise en demeure

    Mise en demeure

    Version texte de la mise en demeure

    (références supprimées)

    Par lettre recommandée avec accusé de réception

    Marseille, le 27/09/2017

    Monsieur,

    Monsieur Florent GALLAIRE m'a chargée de la défense de ses intérêts à l'occasion du différend qui l'oppose à vous.

    Il apparaît que LinuxFr.org a promu, en article modéré par patrick_g le 21 avril 2017 (https://linuxfr.org/news/resultat-electoral-le-nouveau-dpl-est), un journal du dénommé kantien datant du 17 avril 2017 (https://linuxfr.org/users/kantien/journaux/resultat-electoral-le-nouveau-dpl-est).

    Or, ce journal est une contrefaçon des deux articles annuels écrit par Monsieur Florent GALLAIRE (traditionnels depuis 2011 : http://fgallaire.flext.net/tag/dpl/) sur l'élection du DPL datant du 12 mars 2017 (http://fgallaire.flext.net/quel-dpl-debian-project-leader-pour-2017) et du 16 avril 2017 (http://fgallaire.flext.net/chris-lamb-elu-dpl-debian-project-leader-pour-2017).

    Le fait que les deux articles de M. GALLAIRE apparaissant en tête des résultats Google sur la recherche « DPL 2017 » est clairement la cause de la contrefaçon.

    En effet, les similitudes entre les articles de mon client et celui publié sur votre site sont évidentes :

    • Textes de Florent Gallaire :

    Avant l'élection

    http://fgallaire.flext.net/quel-dpl-debian-project-leader-pour-2017

    Le temps passe vite, et cela fait déjà presque un an que Mehdi Dogguy a été élu Debian Project Leader (DPL). Chaque développeur Debian pouvait se porter candidat entre le 5 et le 11 mars à la suite du traditionnel appel à candidatures.

    La question de la légitimité d’un scrutin avec un seul candidat, posée l’année dernière par Paul Wise, n’est heureusement plus d’actualité, mais force est de constater que les candidats ne se bousculent toujours pas au portillon pour devenir DPL. Il y en aura donc deux cette année :

    • Mehdi Dogguy
    • Chris Lamb

    En plus de son rôle de développeur Debian, Chris Lamb est un important contributeur du projet Reproducible builds ainsi que du framework web Python Django et de son écosystème.

    Les presque mille développeurs Debian seront libres de voter du 2 au 15 avril lors d’un vote utilisant la méthode Condorcet.

    Vous pouvez retrouver tous les débats de la campagne sur la mailing list debian-vote.

    Après l'élection

    C’est Chris Lamb qui vient d’être élu Debian Project Leader (DPL) pour l’année 2017, succédant ainsi au mandat de Mehdi Dogguy qui avait été élu sans opposition en 2016.

    Si le mandat de Mehdi s’est bien déroulé, il donnait peut-être trop l’impression d’un Zack 4.0, et il semblerait donc que Chris puisse apporter une nouvelle dynamique au projet Debian. Voici une représentation du résultat du scrutin qui utilise la méthode Condorcet.

    Vote DPL 2017

    Bravo à toi Chris, et bonne chance dans la mise en œuvre de ton programme !

    • Textes publiés sur LinuxFr.org :

    Les périodes de candidature et de campagne se sont déroulées, respectivement, du 5 au 11 mars puis du 12 mars au 1er avril. Seuls deux candidats se sont retrouvés en lice cette année :

    • Mehdi Dogguy, le DPL en titre ;
    • Chris Lamb.

    Après deux semaines de scrutins (entre le 2 et le 15 avril), selon la méthode de Condorcet, les résultats sont tombés hier : Chris Lamb sera le nouveau DPL (Debian Project Leader) (en).

    Félicitation à lui, et bonne chance pour la mise en œuvre de son programme.

    Conformément à l'article L. 111-1 du Code de la propriété intellectuelle, l'auteur d'une œuvre de l'esprit jouit sur cette œuvre, du seul fait de sa création, d'un droit de propriété incorporelle exclusif et opposable à tous. Il est, par ailleurs, de jurisprudence constante que le fait de recopier, dans un article publié, des passages d'un autre article constitue un acte de contrefaçon, peu importe que les éléments copiés comportent quelques différences.

    En l'espèce, non seulement les passages entiers de l'article de M. GALLAIRE sont repris, mais la structure même de l'article contrefaisant est identique à ceux de mon client.

    En tant qu'éditeur du site internet LinuxFr.org, l'association LinuxFr est responsable des contenus publiés sur ledit site internet.

    Monsieur GALLAIRE n'est pas opposé à un règlement amiable de ce différend. Il attend de votre association qu'elle respecte purement et simplement les valeurs que votre site LinuxFr.org est censé défendre, à savoir le respect des licences libres.

    En conséquence, et afin d'éviter des frais inutiles aux deux parties inhérents à toute procédure judiciaire, je vous mets formellement en demeure par la présente, dans les huit jours à compter de la présente :
    - de mentionner le nom de l'auteur original, Monsieur Florent GALLAIRE ;
    - d'intégrer un lien vers la licence CC BY-NY-SA (sic) ;
    - d'intégrer un lien vers l'article original de Monsieur Florent GALLAIRE ;
    - d'intégrer une courte phrase d'excuse à l'attention de Monsieur Florent GALLAIRE, auteur de l'article original.

    A défaut, je vous précise que j'ai d'ores et déjà reçu pour instructions d'utiliser toutes voies de droit pour faire valoir les droits de ma cliente (re-sic).

    Vous devez de ce fait considérer la présente comme une mise en demeure de nature à faire courir tous les délais, intérêts et autres conséquences que la loi et les tribunaux y attachent.

    Je reste bien évidemment à la disposition de Votre conseil habituel pour m'entretenir avec lui sur cette affaire.

    Faute d'un tel contact sous quinzaine, j'estimerai que vous refusez toute solution amiable et reprendrai mon entière liberté d'action.

    Je vous prie d'agréer, Monsieur, l'assurance de ma considération distinguée.

    (coordonnées de l'avocate et de son cabinet)

    Informations complémentaires

    L'équipe de modération a été contactée le 27 avril 2017 par F. Gallaire pour « contrefaçon flagrante de [ses] deux articles annuel ». La réaction à nos demandes de précision évoque notre « mauvaise foi venant de libristes [qui lui] est totalement insupportable » et cite la phrase de conclusion des deux documents concernés (les félicitations au vainqueur et l'encouragement pour son mandat). Et de conclure « Merci de vous mettre en conformité au plus vite, je ne souhaite ni avoir à rendre ce problème public, ni à entreprendre des démarches judiciaires contre un site du libre. » L'équipe a considéré que la demande n'était pas fondée.

    Par ailleurs, LinuxFr.org a des articles sur l'élection du Debian Project Leader depuis au moins 2001 (dont certains de moi, reprenant des informations publiques comme Debian Weekly News et le site du projet Debian), avec des annonces en cas de changement de DPL, le tout par diverses personnes. Le journal de Kantien est sobre : dates, candidats, programmes, type de scrutin, résultat et félicitations. La dépêche est plus étoffée, avec divers ajouts (méthode Schulze, compléments suite aux commentaires du journal, liens vers d'autres méthodes de vote, plein de détails sur le programme du gagnant).

    Suite à la mise en demeure, les discussions se sont poursuivies entre nos avocats respectifs, sans aboutir à un accord.

    M. F. Gallaire est avocat au barreau de Paris. Il a précédemment été évoqué sur ce site (1, 2, 3, 4, 5) pour un conflit avec l'auteur Michel Houellebecq et les éditions Flammarion, autour d'une contrefaçon supposée de Wikipédia (d'une licence Creative Commons donc) pour le livre La Carte et le Territoire, Prix Goncourt 2010 (quelques réactions de l'époque comme celle de Me Eolas, de Wikimédia 1 et 2, ou du blogueur Bluetouff). F. Gallaire avait d'ailleurs réagi en ouvrant un compte sur LinuxFr.org et en publiant 4 commentaires (et 0 contenu), compte qui a été fermé lors de la grande migration (nous avons fermé le 31 mars 2012 les environ 35000 comptes de nos utilisateurs qui n'ont pas été utilisés entre le 20 février 2011 et le 31 mars 2012, après plusieurs relances par courriel sur les adresses de comptes concernés).

    L'association LinuxFr tient à remercier les juristes que nous avons consultés.

    NdM. : nous vous demandons de nouveau de garder un ton respectueux dans vos commentaires.

    Lire les commentaires

  • Next, la web-série sur les risques d’effondrement de notre civilisation, et le monde d’après (Journaux LinuxFR)

    Oui, pour moi les logiciels libres s'inscrivent dans les bonnes manières de faire les choses, dans le monde actuel, mais surtout dans le monde à venir, dit parfois « meilleur ». De même que j’apprécie le commerce dit « équitable », l’agriculture dite « biologique », les énergies dites « renouvelables », les semences dites non-hybride-f1 (cf. Kokopelli), etc.

    Ainsi, j’ai envie de partager ici cette web-série sur les risques d’effondrement de notre civilisation, et le monde d’après.

    Sur basta,
    https://www.bastamag.net/Next-la-web-serie-sur-les-risques-d-effondrement-de-notre-civilisation-et-le

    La chaîne Youtube de Clément MONTFORT,
    https://www.youtube.com/channel/UC0i7t1CC7T0xheeBahaWZYQ

    Dans quel épisode parlerons-nous des logiciels libres ? la libre diffusion de la connaissance et l’accès à la technologie informatique, à l’intelligence artificielle, etc.

    Qu’en pensez-vous ?

    Lire les commentaires

  • Comment bloquer 280M de dollars en éther (Journaux LinuxFR)

    Bonjour fameux Nal',

    Aujourd'hui, enfin hier, un développeur a bloqué tous les portefeuilles Parity multisignés.

    Grossièrement, il a modifié la lib de Parity et s'est octroyé la propriété de tous les portefeuilles multisignés avec Parity. Il a supprimé son contrat auto-exécutant ce qui bloqué tous les portefeuilles multisignés…

    En résumé, le Tweet du concerné explique le résultat :

    It's simple really, imagine walking up to a bank vault and there's a button that says "Lock Forever"……. someone accidentally pushes it.

    Maintenant le concerné commence à s'inquiéter :
    Titre de l'image

    C'est environ 20% de tout l'éther disponible qui est paralysé. On ne sait pas encore si c'est un acte qui se voulait malveillant qui aurait mal tourné ou si c'est une véritable erreur. Dans tous les cas, ça représente 280M de dollars gelés.

    Dans le meme temps, la valeur de l'Ethereum Classic ne cesse d'augmenter depuis…

    Plus d'infos :
    https://thehackernews.com/2017/11/parity-ethereum-wallet.html

    Lire les commentaires

Seuls vos vrais amis vous feront savoir que vous avez le visage sale.
-+- Proverbe sicilien -+-