Cette vidéo n’est pas récente, mais le problème ne s’est pas réglé tout seul depuis 3 ans. Nous avions regardé « The Social Dilema » en ciné-débat, et c’était un super moment pour bien comprendre les enjeux que posent les réseaux au niveau sociétal. Je vous le conseille toujours !

Mais en attendant, voici un résumé de certains points par le très bon « Partager C’est Sympa ». Les premières minutes sont captivantes, jetez-y un œil !,

Cela tourne ensuite sur le monde des créateurs de contenus – peut-être moins pertinent pour « le commun des mortels » : pas besoin de tout regarder, en plus ça vous évitera les recommandations de Youtube à la fin !

On vous prépare d’autres articles sur ce sujet, conseils et info.

 

Et on est preneur·euse de personnes qui connaissent les réseaux sociaux avec des modèles économiques pertinents, comme Mastodon : nous souhaitons le promouvoir avec l’association, qui peut nous aider ? Contactez-nous !

A bientôt,

Guilhem

 

 

 

 

En cette semaine d’entre deux tours, vu la situation, nous avons décidé de parler de certaines informations que nous avons découvertes sur l’excellent podcast de David Dufresne, journaliste et réalisateur d’Un pays qui se tient sage, film que nous avions regardé en ciné débat l’année dernière, en pleine crise de la réforme des retraites.

Deux podcast d’Au Poste ont donc été [re]diffusés, avec l’aimable accord de son auteur. Vous retrouverez ce travail sur le site https://www.auposte.fr

Rediff du 5 juillet : Eric Coquerel: comment barrer la route à l’impossible?

Rencontre avec un cadre de gauche qui explique le programme de la gauche notamment du point de vue économique, avec clarté. A mettre entre toutes les oreilles !

Retrouvez le podcast en ligne :

Rediff du 6 juillet : Élections, révélations: le Kremlin à l’assaut des réseaux sociaux et de la République

2e podcast diffusé : interview de David Chavalarias, directeur d’études au CNRS, qui étudie les interactions politiques sur le réseau social X. Ces études ont été réalisées depuis 2016 avec des résultats très pertinents sur de nombreux sujets comme le climatoscepticisme en 2023 ; aujourd’hui l’analyse des législatives avec ces mêmes méthodes nous éclaire sur ce qui se passe aujourd’hui, avec la montée des extrêmes et la polarisation.  On y parle notamment du vote au jugement majoritaire, pour lequel nous avions fait un atelier lors du dernier festival Folk en octobre dernier. Ces informations rejoignent aussi l’excellent documentaire « Derrière nos écrans de fumée » ou « The Social Dilemma » en version originale, concernant les algorithmes et la polarisation des débats à l’échelle des nations. Nous avions regardé ce film il y a quelques années en ciné-débat au Labo M.

N’hésitez pas à ré-écouter le podcast avec attention sur auposte.fr :

Retrouvez l’étude dont il est question dans le podcast à cette adresse :


Prochain rendez-vous au Labo M : ciné débat mercredi 10 juillet à 19h

Voici un documentaire que l’on pourrait regarder en ciné-débat mais que je voulais vous conseiller de regarder déjà comme ça, parce qu’il est inspirant pour avoir envie de bouger un peu.

Ce film aborde les questions de la science et de son utilisation, aujourd’hui et par le passé, pour expliquer le monde dans lequel on vit. Des exemples historiques permettent de montrer le fonctionnement et les ressorts de ce qui est appelé « la fabrique de l’ignorance », ou encore la fabrique du doute, qui est une sorte d’utilisation de la science contre la science elle-même pour brouiller les messages qui peuvent déranger.

L’industrie du tabac, des pesticides ou du pétrole ont utilisé ces méthodes pour instaurer le doute dans la population sur des sujets précis, et la portée des messages qu’ils portent est aujourd’hui démultiplié par l’utilisation massive des réseaux sociaux commerciaux friands de polémiques, créant des communautés convaincues que les autres ont tort et inversement.

Devant ce constat qui n’a rien de nouveau mais dont ce documentaire dresse un nouveau portrait, il semble aujourd’hui nécessaire de contrecarrer l’emballement de cette société. Comment ?

Du point de vue conscience numérique


Dans le cadre de la conscience numérique à laquelle on réfléchit au Labo M, il nous semble urgent de boycotter les réseaux sociaux commerciaux. En effet, en plus de se gaver des données personnelles utilisées pour favoriser une société de surproduction/consommation toujours plus destructrice, ces systèmes créent des bulles où les opinions les plus extrêmes et malsaines sont les plus partagées, où l’entre-soi aggrave l’intolérance et où notre temps d’attention tant recherché par ces acteurs est si bien capté, ne nous laissant pas le temps de développer nos volontés d’action. D’expérience, on perd peut-être certaines choses en quittant Facebook, mais on gagne un temps précieux et surtout une sensation de liberté soudain retrouvée – tentez-le, ça vaut vraiment le coup.

A une échelle plus large, il nous semble important de s’informer sur les dérives en cours et de soutenir les associations nationales qui luttent contre le détournement de l’outil qu’est le numérique au service d’un contrôle toujours plus complet de son usage et donc de la population qui l’utilise. Les dernières propositions de loi, comme celle sur la vidéo surveillance algorithmique (« nécessaire pour les JO 2024 ») ou celle surnommée chat control (« contre le chiffrement des données »), révèlent que l’état ne veut plus laisser aux GAFAM le privilège de tout savoir sur tout le monde, avec les conséquences que l’on peut voir dans d’autres pays plus avancés en terme de dictature du marché ou de l’état.

Enquête Disclose

Ne les laissons pas faire. Il faut mettre ces sujets sur la table, traquer les détournements liberticides des outils numériques, analyser notre propre utilisation du numérique et tenter de l’orienter dans une direction viable et soutenable.

Bref, bravo à Arte pour ses documentaires, à framasoft pour son esprit et ses actions concrètes, à la Quadrature du Net pour ses revendications, et Elon Musk pour avoir commencé à détruire Twitter et ainsi favoriser les alternatives libres comme Mastodon.

Ah, et pour tous ceux qui ont vu autre chose qu’un problème de numérique dans ce documentaire, c’est possible (voir très probable) ! Et oui on est tous soumis aux effets du biais de confirmation, qui nous fait particulièrement voir ce qu’on a envie de voir, bien plus que tout le reste : ma vision et cet article en sont de parfaits exemples : j’avais envie de parler de ça, on se refait pas ! :)

J’oubliais, voici les liens pour voir le doc :

– en VOD (sur arte)

– en ligne (archive.org)

Bonjour à tous,

Dans le cadre du pôle conscience numérique, qui vise notamment à se détacher des services dont les comportements des utilisateurs* sont le produit, l’association Le Labo M utilise depuis sa création le service ProtonMail pour ses mails. Contents du service et de l’état d’esprit de cette entreprise, nous souscrivons à présent à l’offre incluant le VPN afin de le proposer aux membres actifs du Labo M !

 

Qu’est-ce qu’un VPN ?

Utiliser un VPN (Virtual Private Network) consiste à demander les données dont on a besoin lorsqu’on surfe sur internet à un serveur tiers, qui lui même demandera aux sites web les informations. Cela a plusieurs avantages :

  • Les sites web visités ne connaissent pas votre vraie identité, ce qui offre une meilleure confidentialité,
  • Les données transitent de manière chiffrée entre son ordinateur et le serveur du VPN, ce qui offre même sur un réseau wifi non sécurisé une meilleure sécurité,
  • Avec le choix de l’emplacement du serveur VPN (France, Etats-Unis, Chine, Japon, etc.), il est possible de contourner la censure ou d’accéder à des contenus accessibles à une zone géographique normalement restreinte (ex : Arte n’est disponible que depuis la France et l’Allemagne), offrant donc une plus grande liberté.

Le siège social de ProtonVPN étant basé en Suisse, l’entreprise n’a pas d’obligation de fournir les données de ses utilisateurs aux gouvernements qui pourraient les demander, et puis de toute façon aucune donnée n’est sauvegardée !

Comment cela s’utilise ?

Il suffit d’installer un logiciel qui, une fois connecté, chiffre et déchiffre les données échangées avec le serveur choisi. Cela fonctionne sur tous les systèmes d’exploitation. https://protonvpn.com/fr/download

Pour aller plus loin

Voici un article du blog de ProtonMail sur le fonctionnement des publicités de Facebook, qui s’étend bien plus loin que sur sa seule plateforme : https://protonmail.com/blog/how-big-tech-tracks-users/

Sur un sujet un peu différent, le documentaire « The Social Dilemma » sur l’effet des réseaux sociaux à l’échelle de la société est passionnant. On l’a regardé en ciné-débat virtuel avec les membres de l’association ce mois-ci c’était passionnant !

 

Sortez couverts !

Bonjour à tous,

Le confinement nous bloquant tous chez nous à la maison le soir, pourquoi ne pas en profiter pour organiser un nouveau concept de ciné-débat chacun chez soi ?

C’est ce que nous avons expérimenté en ce début du mois de Novembre : un ciné débat où tout le monde regarde le film en même temps mais chacun chez soi, avec un débat en visio juste après pour debriefer toutes les idées !

Nous étions une dizaine à participer, et cela a super bien fonctionné : les débats ont été très riches, on a pu partager nos ressentis et imaginer des actions à prendre pour faire évoluer nos pratiques sur le web.

On ne va pas refaire le débat ici, mais dans tous les cas je vous conseille ce superbe documentaire qui éclaire au sujet des conséquences sociétales de l’utilisation massive des réseaux sociaux et des services « gratuits » proposés par les plateformes géantes du web qui ne dépendent que de la publicité (les WTFPIG – WhatsApp/Twitter/Facebook/Pinterest/Instagram/Google).

Je pensai être assez au courant des problématiques que ces nouveaux fonctionnements impliquent au niveau des individus, mais j’en ai découvert incroyablement plus. A voir !

A découvrir sur Netflix (c’est un peu l’hôpital qui se fout de la charité mais pourquoi pas), ou par d’autres biais moins officiels.

Par ailleurs, le site web du film donne aussi pas mal de pistes une fois que l’on a vu le documentaire et que l’on souhaite aller plus loin dans la démarche de prise de conscience numérique, notamment pour reprendre en main ses données : https://www.thesocialdilemma.com/

En conclusion

En attendant des jours meilleurs où l’on pourra de nouveau faire des ciné débats « en vrai », le principe par visio interposée est plutôt sympa : à reconduire, vous pouvez déjà nous donner vos idées pour le prochain film !

A bientôt !

Guilhem

 

Voici un article sur quelque-chose que je viens de découvrir un peu par hasard, et qui m’a un peu voir beaucoup surpris ! On en apprend tous les jours, et aujourd’hui je le partage !

Les Captcha ou le double effet KissCool

Tout le monde connaît et a eu affaire aux Captcha sur des sites web ou formulaires de contact : ces petites cases vous posent des questions afin de prouver que vous êtes bien un humain et non une machine. Rien de sensationnel dans tout cela, cela sert juste à éviter les méchants spammers d’envoyer des messages de pub via les formulaires en ligne non ?

Et bien oui et non comme on va le voir !

Détournement de la fonction originale

Les Captchas ont peu a peu ajouté des « fonctionnalités » a leur but initial. Voici un petit aperçu de cette évolution.

Niveau 0 – pas encore de détournement

Pour la petite histoire, les captcha ont été inventés en l’an 2000 dans une université américaine. Le terme CAPTCHA est l’acronyme de Completely Automated Public Turing test to Tell Computers and Humans Apart (test public de Turing complètement automatique afin de différencier les humains des ordinateurs). A l’origine vers les années 50, le test de Turing tentait tout simplement de répondre à la question : « une machine peut-elle penser ? ».

Les captcha de cette époque était juste des questions du type  » 3 + 4 = ? « .

Niveau 1 – transcription de textes en travail dissimulé

L’un des inventeurs du Captcha se dit qu’il pourrait mettre à profit les interactions avec les humains (estimés à 200 million par jour en 2006)  pour aider l’intelligence artificielle à « retranscrire » des textes scannés.

Google repère cette opportunité qui s’ouvre et rachète reCaptcha en 2009.

Google a depuis sa création la volonté de créer le plus grand ensemble de contenu numérisé existant. reCaptcha va lui permettre de combler les lacunes de l’IA de son système reconnaissance de caractère.

Les captcha ont donc été composés de deux mots à retranscrire : l’un d’eux est connu par la machine, et l’autre non. Si le mot connu est entré correctement, alors le second est enregistré. Si plusieurs utilisateurs donnent la même retranscription au mot inconnu, alors celui-ci est validé.

Ce process a duré environ deux ans, puis a du être modifié pour deux raisons :

  • l’intelligence artificielle de transcription est devenue « trop » efficace (les mots restant trop difficile à déchiffrer même pour les humains),
  • toutes les ressources numérisables l’ont été en 2011 (tous les références de Google Books ainsi que l’intégralité des 13 millions d’articles de presse du New York Times depuis 1851 entre autre !).

Que faire alors de toute ces secondes de cerveaux disponibles ?

Niveau 2 – collecte de données pour Google Maps

A partir de 2012, l’intelligence « collective » est utilisée pour la reconnaissance d’image, bien moins perfectionnée alors que pour l’OCR.

Google commence par street view, avec le même système de validation de l’utilisateur que précédemment (c’est tout de même le but des captcha il ne faut pas l’oublier !), mais avec un deuxième mot à reconnaitre provenant d’une image de street view, par exemple des numéros de maison ou des panneaux de signalisation.

Les données collectées à force de secondes « volées » aux utilisateurs (moins de temps serait nécessaire par personne pour la seule validation humain/robot, ce temps supplémentaire est estimé à 250 000 heures par jour en 2006) sont ajoutées à la base de donnée de Google Maps. Pratique non ?

Pourtant, comme on l’a vu ci-dessus, les machines peuvent réussir à résoudre ce type de captcha : le système était bien pour Google Maps mais ne répondait plus au besoin initial. Il a donc fallu inventer de nouveaux systèmes de tri.

Niveau 3 – double but pour la nouvelle version de reCaptcha

En 2014, fini les mots ou les chiffres à taper : il y a juste une case à cocher ! Pratique !

Comment cela fonctionne-t-il ? Les outils de reCaptcha sont-ils devenus devins pour savoir en un clic si vous êtes humains ou non ?

Afin de savoir si vous êtes ou non un robot, les outils de Google sont mis en place non plus juste sur le formulaire à « protéger ». L’analyse des comportements des visiteurs sur la page est étudié, grâce au temps passé pour remplir le formulaire ou avec les mouvements de souris, mais les cookies ou les paramètres du navigateurs sont aussi passés en revue. Tout cela permet de déterminer si vous êtes plutôt du genre robot ou humain.

3.1 : marketing comportemental

Fini le travail dissimulé alors ? Au contraire : au lieu d’être un travailleur anonyme, votre travail est personnalisé. Grâce aux cookies de votre navigateur, vous êtes identifiés et votre comportement sur chaque site « équipé » est enregistré et vient compléter votre profil. Si vous n’avez pas de compte Google connecté, alors les cookies sont tout de même utiles pour remplir une sorte de shadow profile, qui pourra peut-être être relié plus tard à votre véritable profil et qui en attendant donne des informations sur les comportements globaux des internautes.

Si votre navigateur est paramétré pour être bien « protégé » contre ces méthodes de pistage, alors vous leur êtes totalement inutile : vous êtes donc fichés comme « suspect » et cocher la case ne fonctionne pas : on vous renvoie vers la caisse pour payer le captcha du site que vous visitez : direction les cases à cocher !

3.2 : nourrissage de réseaux neuronaux

Ce n’est pas une blague ! Si pour les raisons évoquées si dessus ou tout simplement si Google en a besoin, alors vous êtes redirigés vers les cases à cocher de ce type là :

Et comme vous l’avez peut-être remarqué, généralement il n’y en a pas qu’un à remplir. On se dit généralement « merde j’aurai dû mettre le haut de la 3e case je me suis trompé » en fait pas du tout : certaines grilles sont connues et permettent de vous classifier humain ou non, tandis que d’autres sont juste du travail bonus ! Et quel est le job ? Entraîner un réseau neuronal d’un système d’intelligence artificielle !

Saurez-vous distinguer un feu rouge d’un lampadaire ?

Comment cela fonctionne-t-il ? l’IA n’est au début pas vraiment intelligente : tout comme les humains au cours de leur vie, pour reconnaitre un feu rouge par exemple il faut que savoir à quoi ça ressemble généralement, pour définir quelques caractéristiques communes de ceux-ci : on est ensuite capable de reconnaître un feu rouge dans a peu près n’importe quel pays par la suite, et les différencier des lampadaires sans trop de problèmes. Et bien c’est pareil pour l’IA, il faut lui apprendre ou vérifier ce qu’elles ont appris et c’est ce que font les internautes en cochant les cases des captchas : c’est le deep learning.

Quelle utilisation pour l’Intelligence Artificielle que nous participons tous à former ?

Site internet de Waymo, la voiture autonome de Google

Comme on pouvait s’en douter avec les panneaux de signalisation, passages piétons et autres infrastructures routières que l’on doit reconnaitre dans les Captcha, c’est dans le domaine de la voiture autonome que les logiciels sont à présent entraînés. Le slogan de Waymo aurait d’ailleurs pu être « You‘re building the World’s Most Experienced Driver » !

En tout état de cause, il semblerait aujourd’hui que Google n’ai plus besoin trop besoin de nous pour les voitures, car il lance sa nouvelle version de reCaptcha : que nous réservent-t-ils pour la suite ?

 

Niveau 4 – data mining

Le nouveau système, appelé « No Captcha Recaptcha » annonce fièrement qu’il n’est désormais plus nécessaire ne serait-ce que de cocher une case pour savoir si l’on est un robot ou non. Il s’agit tout simplement d’une évolution de la première étape de leur système précédent : analyse du comportement et de l’historique, mais cette fois-ci appliquée à toutes les pages du site (et de toutes celles des autres sites visités avant grâce aux cookies). Il vous est ensuite attribué une note en fonction du risque potentiel que vous présentez.

La vidéo de présentation de l’outil est très claire : plus l’outil est mis en place largement sur le site, plus il sera efficace. Il faut qu’il soit en mesure de scanner toutes les interactions avec les utilisateurs pour détecter les robots.

« Les utilisateurs ne sont plus dérangés, tout le monde est content, sauf les robots ! ». Et les plus heureux sont sûrement les analystes de Google, qui peuvent désormais compter sur une quantité impressionnantes de données comportementales sur un maillage de millions de site web différents, afin rendre leurs activités toujours plus rentables (il faut rappeler que 75% des 30’700’000’000 de dollars de bénéfices de Google en 2018 proviennent de la publicité).

En conclusion

Est-il si gênant que cela de perdre quelques secondes par-ci par là ? Pourquoi ne pas profiter tout simplement d’un internet gratuit grâce à ces entreprises du web qui ont trouvé un business model qui profite à tout le monde ?

Je ne le souhaite pas personnellement. D’une part, rien n’est vraiment gratuit et les milliards de bénéfices ont bien été payés par quelqu’un. D’autres part tout le monde se retrouve à payer le prix de la surproduction, elle-même conséquence de notre société basée sur la croissance infinie de la consommation – et de son moteur, la publicité toujours plus efficace pour créer nos besoins.

Lutter à son niveau contre la publicité -directe ou indirecte – est une lutte contre cette forme de société.

Le sujet de la conclusion nécessiterait bien plus que trois ligne pour être traité correctement et convaincant, mais ce n’est pas le but de l’article ! Si vous avez pu vous rendre compte d’une des nombreuses méthodes utilisées pour faire tourner la grande machine des GAFA, alors c’est tout bon !

 

Pour aller plus loin dans les rouages des géants du net, et par conséquent dans les coulisses de nos vies numériques actuelles, je vous conseille le livre « Capitalisme de plateforme« , ouvrage très pointu dans le domaine de l’économie traitant des conditions qui ont permis l’émergence et le développement des grandes plateformes numériques (entre autre les GAFA – Google Apple Facebook Amazon), puis détaille leur mode de fonctionnement pour comprendre quel est « pour de vrai » leur modèle économique.

 

 

 

PS : je viens de retirer « voici un petit article » du premier paragraphe. Si j’en doutais encore, il faut que je me rende à l’évidence : je ne sais pas écrire de petits articles, rapides et efficaces, il faut toujours que j’aille chercher la petite bête et comprendre tout dans les moindres détails… J’ai pourtant fait des efforts, et il reste sûrement quelques zones d’ombres, erreurs ou omissions que vous me pardonnerez ! :)

Des petites recommandations pour ceux qui sont encore chez Google !

Au Labo M, nous tentons de nous dégoogliser. Ou plutôt, comme c’est une nouvelle structure, nous cherchons à utiliser des services libres et ouverts, ou au moins respectueux des données personnelles, la monnaie locale sur internet.

Pourquoi ? D’autres sites expliquent cela beaucoup mieux ! A commencer par Framasoft, qui explique tout cela sur la page dédiée :

https://degooglisons-internet.org/

En attendant le déclic…

Ne pas rentrer dans le système Google ou consorts est plus facile que d’en sortir, je l’expérimente personnellement depuis quelques années… Cela prend du temps et demande certains sacrifices, et tout le monde n’est pas prêt ou n’a pas les capacités techniques de s’en sortir.

Il faut continuer à essayer, et ce que je vous conseille en attendant, c’est de contrôler les données qui sont stockées et utilisées par Google pour vous faire vendre : comme tout bon produit Google c’est assez bien fait, en quelques minutes vous aurez tout décoché !

C’est clair et en français : naviguez sur ce site et décochez tout ce qui vous semble empiéter sur votre vie privée, notamment :

  • Les activités : enregistre, jour par jour et heure par heure, tout ce que vous recherchez/regardez sur GMail, Youtube, Maps et Google bien sûr.

Exemple pour le 16 mai 2018 : 71 éléments enregistrés, des itinéraires, des recherches web, les messages gmail regardés, fichiers drive utilisés, en gros on peut se refaire le planning de la journée : pratique si on a besoin d’un alibi !

-> Conseils :

  • supprimer les activités déjà enregistrées.

  • désactiver l’enregistrement de nouvelles activités.

 

  • Personnalisation des annonces : utilise vos données/activités pour vous pousser à la consommation en trouvant des produits dont vous n’avez pas besoin mais qui peuvent vous faire envie. -> Conseil : désactiver la personnalisation

Petit clin d’œil : une fois qu’on désactive les publicités personnalisées, Google nous propose un site web externe qui permet de désactiver les pubs personnalisées de toutes les autres entreprises du secteur ! Malin jusqu’au bout ce Google ! :)

 

Voilà qui permet de réduire les conséquences à titre personnel de l’utilisation des services Google ! Il faut juste espérer que tout le monde ne va pas faire cela, sinon Google va faire faillite !

N’hésitez pas à me faire part de vos commentaire ci-dessous si nécessaire.

Guilhem pour le Labo M