Comment fait Youtube pour nous connaître “mieux” que nous-mêmes ?

Jean-Lou Fourquet
Après La Bière
Published in
21 min readSep 23, 2022

--

Pour celles et ceux qui aiment quand ça bouge, ça chante et ça s’agite, il y a la version vidéo ou la version podcast.

Si les algorithmes de recommandation sont à l’humanité ce que les biais cognitifs sont à l’individu (voir article précédent), pourquoi nous mènent-ils aujourd’hui droit dans l’abîme en nous rendant collectivement quasi aveugle quant à ce qui nous menace réellement, globalement et existentiellement ?

I) Les deux problèmes de la boussole algorithmique

Printemps 2019, le compteur de vues de la vidéo de la fille de 10 ans de Christiane C., se baignant dans sa piscine avec une amie, commence à s’affoler. Il atteint rapidement les milliers de vues (ce qui est déjà énorme, n’hésitez pas à aller faire un tour sur la chaîne d’ApresLaBiere pour le réaliser). Lorsqu’il atteint, peu après, les 400 000 vues Christiane prend peur et réalise qu’il y a “baleine sous gravillon”.

En effet, même Christiane C. qui comme beaucoup de mères pense que son enfant est la plus belle création de l’histoire de l’humanité se doute bien qu’il est étrange que 400 000 sinistres inconnus en viennent à partager sa subjectivité maternelle aveugle. Pourquoi l’innocente vidéo de la fille de Christiane C est-elle devenue aussi populaire ?

Car elle n’est pas si innocente pour tout le monde justement et l’algorithme de recommandation de Youtube (responsable de 70% des vues totales de la plateforme¹) l’a très très bien compris ! Il l’a activement promue auprès d’une audience extrêmement spécifique : les utilisateurs qui venaient de regarder d’autres vidéos d’enfants prépubères partiellement vêtues.

source

Comment se fait-il que l’algorithme de Youtube ait activement regroupé toutes ces vidéos d’enfants prépubères tournées souvent dans un cadre familial et non sexualisant pour les servir à un public pour qui ces vidéos se trouvaient être à caractère sexuel ? Quel ingénieur pourrait volontairement se dire qu’il allait créer la catégorie : “enfant prépubère partiellement dévêtu” et la servir à une catégorie du public étiquetée “personne à tendance pédophile” ?

Aucun !

Aucune personne à peu près normalement constituée en 2019 n’y aurait pensé (pas même un ingénieur google², c’est dire) mais l’algorithme de recommandation de Youtube nourrit des données de visionnage de la planète entière peut faire ce regroupement et ce lien là. Et comme tout bon algorithme, il le fait sans “conscience” des catégories qu’il fait émerger en suivant son unique boussole : maximiser le temps passé par les utilisateurs sur la plateforme. Pire, il le fait sans même que les créateurs de l’algorithme n’aient à réaliser et à comprendre les regroupements et les liens qu’il opère. C’est ce qu’on appelle en IA le problème de l’ “alignement des valeurs” :

“Un système d’IA est décrit comme étant désaligné s’il est compétent (ex : il arrive à effectivement extraire énormément d’attention humaine) mais poursuit un objectif non souhaité (ex : il recommande des vidéos pouvant être considérées comme étant à caractère sexuel par des pédophiles à des pédophiles).” ³

La caisse de résonance algorithmique donnée à tout contenu suscitant de la colère est un des exemples les plus symptomatiques et dramatiques du problème du désalignement de l’IA comme l’explique brillamment Cgp Grey dans sa vidéo :

Pour un désalignement choquant tellement nos valeurs que nous sommes forcés de le comprendre, combien de contenus désalignés aux conséquences sociétales dramatiques à long terme bénéficient d’une caisse de résonance algorithmique sans que nous le réalisions ? Combien de recommandations Youtube, passent sous les radars et nous enferment progressivement dans des bulles cognitives de plus en plus isolées les unes des autres ? Combien de recommandations accélèrent la diffusion d’idées de plus en plus personnalisées et polarisées créant autant de réalités que d’individus ?

Or comment est-il possible de s’accorder démocratiquement sur ce qui devrait être et sur comment y arriver quand nous sommes de plus en plus incapables d’être d’accord sur ce qui est ?

Comment maintenir nos capacités démocratiques dans un monde où les algorithmes ont intérêt à saborder son fondement principal : le sentiment d’une réalité partagée.

Nous faisons finalement face à deux problèmes distincts quoique interdépendants :

1/ Le problème de la boussole

Il faut réaliser que pas un seul atome d’ “intérêt général” n’entre dans la composition du pôle nord magnétique des GAFAMs. Le seul objectif que les GAFAMs donnent aux algorithmes de recommandation est d’ : “extraire le plus de temps (et donc le plus de ressources financières) de chaque individu”. Or il est très improbable que tout faire pour extraire le plus d’attention humaine à court terme participe à résoudre les enjeux globaux actuels qui justement nécessitent une pensée et une vision long terme.

Autrement illustré :

On retombe là sur le problème global de l’économie de l’attention et du capitalisme attentionnel. On pourrait bien entendu espérer que le politique tente de forcer les GAFAMs à intégrer le respect de l’intérêt général dans leur stratégie mais cet espoir est largement déçu depuis deux bonnes décennies : les évolutions technologiques du secteur numérique évoluent dramatiquement plus vite que notre capacité à les réguler, tout du moins en Occident. A ce titre, Il est intéressant d’observer ce qu’il se passe en Chine où il est désormais interdit aux jeunes Chinois de moins de 14 ans de passer plus de 40 minutes par jour sur Douyin (la version chinoise de Tiktok) avec interdiction ferme entre 22h et 6h et ceci d’après les autorités pour limiter l’impact négatif de cette plateforme sur la santé physique et mentale des jeunes chinois. Et autant on peut se dire que les US réglementeront l’application Tik tok en raison des dangers géopolitiques qu’elle représente (la Chine ayant le contrôle sur cette application), autant on ne voit pas trop pourquoi la Chine réglementerait l’application sur son propre territoire si ce n’est parce que le régime chinois est intimement convaincu du danger qu’elle représente pour les jeunes.

source

2/ Le problème du désalignement

C’est celui dont on vient de voir un terrible exemple : quel que soit l’objectif d’un algorithme (même s’il intégrait l’intérêt général donc), il peut générer des effets de bord indésirables auxquels on ne s’attendait pas.

Pour résumer : Même si on tentait d’aller dans la bonne direction, on ne serait pas certains de ne pas tomber dans un précipice. En ne tentant même pas d’y aller, on augmente drastiquement nos chances d’effectivement ne jamais arriver à “bon port”.

Nous sommes donc pour l’instant condamnés à réaliser à posteriori le saccage de l’intérêt général par ces algorithmes doublement problématiques. C’est comme si face à une mer d’icebergs, notre seule option était de foncer droit dedans et d’attendre que notre coque soit éventrée pour réagir et se mettre à colmater les “fuites” dans la panique.

Mais même en sachant tout cela, il est ardu pour celui ou celle qui milite pour de meilleurs algorithmes de savoir par quel bout prendre le problème car le fonctionnement de ces algorithmes est opaque. Il est opaque non seulement au plus grand nombre et à la puissance publique mais même parfois à leur propre concepteur. On pourrait dire que les algorithmes de recommandation sont “doublement opaques” :

II) La double opacité des algorithmes

1/ L’opacité stratégique

Cette opacité est voulue par la plateforme qui ne veut pas rendre publique sa “recette” magique pour des raisons stratégiques et économiques : si tout le monde connaît la recette de l’algorithme, il est d’autant plus facile de créer du contenu correspondant exactement à cette recette afin que l’algorithme le promeuve. Or il devient d’autant plus difficile pour l’algorithme de trier et de sélectionner du contenu qu’il existe une énorme quantité de contenu correspondant exactement à ses critères (qui deviennent par la même occasion obsolètes). Si, par exemple, tout le monde savait le jour même où l’algorithme de youtube est modifié que Youtube privilégiera désormais les vidéos d’une durée comprise entre 5:30 et 6:25, tous les créateurs et créatrices sortiraient des vidéos de cette durée la journée suivante, rendant complètement inefficient ce nouveau critère de recommandation. Parmi les 99% de vidéos de la plateforme qui seront désormais comprises entre 5:30 et 6:25, lesquelles recommander ?

A cause de cette opacité stratégique, il est extrêmement difficile de connaître les critères scrutés par les grandes plateformes.

Quelle est la stratégie concrète de telle ou telle plateforme pour augmenter ses revenus ? Est ce que l’algorithme de facebook pourrait se mettre à considérer qu’une réaction “angry” vaut 5 “likes” par exemple ? (spoiler alert, on a fini par savoir que oui).

Mais si nous avons dû attendre les facebook files pour comprendre à quel point tous les emojis (notamment celui de la colère) étaient mis en avant par rapport aux likes classiques, certaines entités avaient dû découvrir le pot aux roses bien avant. Car c’est l’un des inconvénients de l’opacité stratégique, elle avantage grandement les organisations qui ont la capacité et l’intérêt de découvrir les mécanismes cachés des algorithmes afin d’étendre leur influence. C’est notamment le cas des fermes de troll russes qui ont probablement découvert le poids de la colère bien avant que les facebook files provoquent notre atterrissage forcé dans un monde virtuel où ne vivent pas uniquement d’adorables chats.

Si la force publique n’a pas accès à cette connaissance, comment peut-elle anticiper et prévenir d’éventuelles catastrophes sociétales pouvant découler des biais de recommandations des plateformes ? Comme à tout hasard l’augmentation de la détresse psychologique chez les adolescents ? C’est exactement comme si on renonçait à exiger de la part de Justin Bridou la composition de ses saucissons, lui laissant la liberté d’y ajouter un peu d’opium histoire de fidéliser les amateurs de charcut.

2/ L’opacité technique

Celle-ci est due à la nature même des technologies utilisées. Les algorithmes de recommandation sont aujourd’hui ainsi créés que même leurs concepteurs ne connaissent parfois pas précisément les critères et les raisons pour lesquels du contenu est recommandé.

Cette double opacité nous oblige en tous les cas à regarder passivement passer le TGV de la recommandation algorithmique…

Nous sommes condamnés à pédaler dans la semoule et à constater à posteriori qu’une trop grande partie de ce qui attire notre attention est du contenu qui, mis bout à bout dans tous nos fils d’actualités, s’avère détricoter nos démocraties : polarisation, bulles de filtres de plus en plus hermétiques, sur représentation des visions simplistes et non nuancées dans l’espace politique, etc.¹⁰

III) Zoom sur le collaborative filtering

(ou comment un algorithme peut créer des catégories et faire des liens qui ne sont pas forcément clairs / explicites, même pour ses concepteurs ?)

Même si c’est toujours bien de comprendre un petit peu plus en détails ce qui peut se cacher derrière une phrase telle que “même les concepteurs ne savent pas ce que font les algorithmes”, là c’est quand même un peu le moment où si vous vous foutez des détails techniques comme de votre première dictée, filez directement à la conclusion !

Ce dont je vais parler maintenant (collaborative filtering), c’est d’un algorithme classique de recommandation, dont YT s’est probablement inspiré à un moment donné. L’algorithme de youtube aujourd’hui est bien plus complexe et utilise du deep learning à différentes étapes mais en comprenant en détails le fonctionnement de la technique classique du “collaborative filtering”, on entrevoit comment il se fait que les concepteurs d’un algorithme puisse ne pas comprendre précisément ce qu’il fait et à quel point ses mécanismes peuvent leur échapper. Et ceci sera d’autant plus vrai que l’opacité technique augmentera, ce qui est clairement le cas pour l’algorithme actuel de Youtube qui enfile les modules de deep learning comme des perles.

Comme déjà évoqué, le but des algorithmes de recommandation actuels est de présenter à chaque individu le contenu qui est le plus à même de le maintenir sur la plateforme.

Dans l’idéal de Youtube, ils connaîtraient pour chaque individu surfant sur la plateforme, l’évaluation exacte du pouvoir d’attraction de chaque contenu à ce moment précis afin de lui présenter LA vidéo qui aurait le plus de chance de le maintenir sur la plateforme. Dans la vraie vie, Youtube n’est pas (encore) omniscient et évalue les contenus en fonction de la manière dont les utilisateurs ont interagi avec eux : a-t-on regardé la vidéo en entier ? Plusieurs fois ? Depuis le mobile ou l’ordinateur ? A-t-on laissé un commentaire ? Plusieurs ? Un like ? Un dislike ? C’est grâce à ce type d’informations (dont Youtube dispose) que la plateforme va pouvoir évaluer le pouvoir d’ “extraction temporelle” d’une vidéo que vous avez déjà regardée.

Pour stocker l’ensemble des évaluations, il faudrait construire une immense table, où chaque ligne représenterait les goûts d’un utilisateur et chaque colonne représenterait l’ensemble des “évaluations” (mettons une évaluation du pouvoir d’extraction d’attention notée sur 10) d’un contenu.

Dans la réalité, il y a évidemment plein de cases (l’immense majorité) pour lesquelles Youtube n’a aucune donnée d’interaction. J’ai beau avoir passé une vie sur youtube, je suis loin d’avoir interagi (et donc fournit des données de visionnage) avec les 800 millions de vidéos de la plateforme et c’est justement celles-là qu’il a le plus intérêt à évaluer. C’est parmi ces vidéos que je n’ai jamais vues qu’il y a les vidéos qui ont le plus gros pouvoir d’extraction temporelle étant donné que je ne passe pas mon temps à regarder les vidéos en boucle. Le but de l’algorithme de recommandation est par conséquent de prédire au mieux le maximum de valeurs de cette immense table grâce aux valeurs qu’il “connaît” déjà…

Par exemple, on sent bien qu’un algorithme n’aura pas à être la Rolls Royce des algos pour déduire et prédire que l’utilisateur Jean-Lou adorera (10 sur une échelle de 10) toutes les vidéos de maréchal ferrant étant donné qu’il a passé toute la soirée du 3 Juin à les binge watcher les unes après les autres : elles sont très probablement IRRÉSISTIBLES pour cet utilisateur ! (ne jugeons pas les addictions des uns et des autres svp)

Je vous assure, c’est incroyablement addictif, pour les plus téméraires, suivez le lapin blanc ¹¹

A l’aide des infos dont il dispose et qui lui permettent d’évaluer les goûts de certains utilisateurs pour certaines vidéos, l’algorithme essaiera de déduire tout le reste de cette immense table.

“Mort aux points d’interrogation !”

La méthode du collaborative filtering : trouver les “régularités” pour résumer dans un premier temps et pour prédire ensuite.¹²

Pour faire cela, l’algorithme trouve à partir des évaluations qu‘il connaît des “régularités” / “motifs” dans les utilisateurs et dans les contenus.

En effet, les goûts et les couleurs ne sont pas complètement aléatoires. On peut les résumer et les exprimer de manière plus synthétique que dans une table aussi gigantesque que ci-dessus ; par exemple comme le produit de deux tables (autrement appelés matrices) qui auront à elles deux beaucoup moins de cases que la table originale. En regroupant les régularités et les motifs, les deux tableaux exprimeront la même quantité d’information en moins d’espace (de cases donc) :

Une manière d’expliquer ce que “résumer” (ou “compresser” pour celles et ceux qui viennent plutôt du monde de l’informatique) ce genre de table signifie est de dire qu’on regroupe les informations qui constituent des motifs qui se répètent dans plusieurs lignes (respectivement plusieurs colonnes) à un seul endroit. Une interprétation humaine de ce résumé mathématique est de dire qu’un motif qui se retrouve dans plusieurs lignes va représenter une typologie particulière d’usagers qui partagent certains goûts / caractéristiques : par exemple les gens qui ne regardent que des vidéos de moins de 5 minutes, les fans de skate, les gens friands de vidéos légères, les gens qui parlent le tibétain. De la même manière, une régularité entre colonnes correspondra à des contenus qui partagent également une propriété : la durée, la thématique, le ton, la langue…

Et finalement, ce fonctionnement est très “humain”. Notre manière d’évoluer et de comprendre le monde instinctivement, c’est aussi de créer des catégories qui font du sens en généralisant certaines des récurrences (parfois à tort bien entendu) qu’on observe. Je constate que jusqu’à maintenant chaque matin de ma vie, le soleil s’est levé, plutôt que de me demander tous les matins si le soleil se lèvera de nouveau, je généralise que tous les matins il se lèvera. Il en va de même avec la gentillesse des clients de l’Eurekafé de Toulouse¹³, je m’autorise à généraliser.

Prenons cette table par exemple (comme nous sommes de pauvres humains et pour plus de facilité, la table est complète mais un algorithme n’aura pas plus de mal à trouver des régularités dans une table bien plus gigantesque et avec bien plus de points d’interrogations que de trous dans un morceau de gruyère) :

Au premier coup d’oeil on s’aperçoit que :

  • L’humain 2 n’aime aucune vidéo, il est très probablement chiant comme la pluie…
  • L’humain 1 et 4 ont exactement les mêmes goûts, peut-être 4 est-il obsédé par 1 et le stalke sur les réseaux ? Ou bien ce sont des jumeaux ?
  • Quant à l’humain 5, il vit sa meilleure vie sur Youtube.

Au second coup d’oeil on s’apercevra que :

  • Les évaluations de l’humain 5 sont égales à la somme des évaluations l’humain 3 et de celles de l’humain 4 (ou bien de l’utilisateur 1, ils sont culs et chemise ces deux-là je vous rappelle).
  • La vidéo 2 et la vidéo 4 ont exactement les mêmes évaluations, on soupçonnera qu’elles aient deux/trois trucs en commun…

Ce sont ces régularités qui nous permettent de “résumer” cette table comme le produit de deux petites tables (résumé autrement appelée “factorisation matricielle”) que voici :

D’un côté on a un tableau contenant la liste de tous les humains avec pour chacun une évaluation de leur sensibilité aux deux “critères” qui viennent d’“émerger” des régularités de la grande matrice de départ. De l’autre, on a la liste de toutes les vidéos avec pour chacune une évaluation pour chacun de ces deux critères.

Dans les faits, l’algorithme n’a pas besoin que la table soit complète pour trouver des motifs et pour opérer le “résumé”. C’est d’ailleurs l’un des objectifs de résumer une immense table incomplète comme le produit de deux tables complètes : lorsqu’on re-multiplie les deux tables complètes, on obtient à la place des points d’interrogations, des “prédictions” basées sur les motifs incarnés par les deux matrices.

Ces prédictions correspondent aux évaluations déduites par l’algorithme. Elles seront pertinentes s’il s’avère que la régularité mathématique trouvée traduisait une véritable régularité dans les goûts et les couleurs des utilisateurs. Et comme il est très peu probable qu’une régularité solide ne soit dûe qu’au hasard….

Et peu importe le pourquoi du comment de cette “vraie” régularité. Peu importe que la vidéo 1 soit une vidéo sur la confection des Momo (plat traditionnel tibétain) en tibétain, que la 2 parle de ferronnerie et la 4 de skate. Peu importe de savoir si Mathieu (l’humain 3) n’a pas aimé les vidéos sur la confection de momos parce qu’il n’a pas l’âme d’un cuistot ou bien parce qu’il ne pipe rien au tibétain. Peu importe d’avoir l’explication de ce résumé matriciel et peu importe surtout si les recommandations qu’il contient nous précipitent dans “la vallée du collapse”.

L’algorithme n’a pas besoin de nommer les critères pour qu’ils soient pertinents et efficaces. Et c’est bien là l’enjeu de le laisser faire des regroupements dont la signification ne nous est pas forcément évidente.

Si sur les 1242 vidéos que vous avez regardées pendant l’été, 1242 étaient en français, vous ne verrez probablement pas passer beaucoup de vidéos en tibétain dans vos recommandations. La connaissance des raisons de votre obsession des vidéos francophones n’est pas nécessaire pour que la décision algorithmique soit efficace du point de vue de l’objectif qu’on a donné à cet algorithme.

La stratégie derrière une telle recommandation, si elle avait été pensée consciemment par le créateur des regroupements “spectateur francophone” et “contenu en tibétain non sous titré”, n’aurait eu aucun mal à être comprise et analysée. On aurait pu dans ce cas tenter d’anticiper les conséquences de ces regroupements et des recommandations qui en découlent. Par exemple, il est à prévoir une méconnaissance crasse des individus francophones sur la manière de bien confectionner le Momo ainsi qu’une stagnation de leur niveau de tibétain.

Le problème est qu’on ne connaît pas “à priori” ce qu’expriment les régularités que l’algorithme de recommandation va dénicher et qu’il ne nous les explique pas. On sait juste que ces regroupements expriment une régularité dans les goûts et les couleurs des usagers de la plateforme. Si un regroupement trouvé par l’algorithme signifiait par exemple que les gens qui aiment regarder des vidéos de fitness étaient bien plus sensibles que la moyenne aux vidéos “lifestyle” d’un illuminé perpignanais¹⁴ vous expliquant que se nourrir exclusivement des rayons du soleil, c’est excellent pour la santé. On serait contraints de le comprendre et de constater les conséquences dramatiques de ce regroupement à posteriori, une fois les urgences pleines d’adeptes curieusement affamés…

L’algorithme résume la table à “sa” manière (autrement appelé factorisation comme on l’a vu). Ses regroupements sont mathématiquement justes et pertinents mais il n y a aucune raison qu’ils correspondent à des catégories que nous aurions nous humains voulu utiliser (comme la catégorie “film d’action” ou bien la catégorie “documentaire”). C’est ainsi que dans l’histoire de Christiane C., on a constaté après coup que l’algorithme avait créé une catégorie qui, si on se risquait à la traduire en langage humain aurait pu porter le label : “utilisateur dont l’attention peut être retenue par le contenu à tendance pédophile”.

Les tableaux du dessus avec une telle légende, ça sent quand même pas très bon l’intérêt général. C’est pourtant ce qu’il s’est passé et continue de se passer tous les jours…

On ne comprend pas à priori les catégories créées. Il faut réaliser que cette opacité technique déjà présente dans le cas d’une technique aussi “simple” que celle qu’on vient de voir redouble d’épaisseur dès qu’on touche à des techniques comme l’apprentissage profond et les réseaux de neurones avec lesquels il est encore plus aisé de n’absolument rien comprendre du pourquoi du comment d’une décision, d’une évaluation ou d’un jugement. Il est aussi ardu de comprendre exactement comment ils fonctionnent que de constater qu’ils “fonctionnent” parfois diablement bien. La tâche de ceux qui veulent rendre ces domaines “explicables” me semble aussi immense qu’importante.¹⁵

Toutes ces opacités techniques sont autant de murs derrière lesquels peuvent se cacher les plateformes lorsque face à une commission d’enquête parlementaire, ils nous sortent, une main sur le coeur et l’autre sur la bible #US-Style, des tirades de ce style :

“On ne sait pas, on n’est pas tout à fait certains qu’en voulant extraire de l’attention, on n’est pas en train de saborder les fondements de nos sociétés démocratiques. Peut-être que oui, peut-être que non, en attendant d’être certains, laissez nous faire ce qu’on veut parce qu’économiquement, on est quand même hyper importants !” ¹⁶

Et ils ont raison, on n’en est pas certains comme nous restâmes incertains trop longtemps de la responsabilité des activités humaines dans le changement climatique ou bien de la responsabilité du tabagisme dans les cancers du poumon. Mais lorsqu’on arrive à un virage serré, on a beau être incertain de la présence d’une autre voiture arrivant en sens inverse, on n’accélère pas pour autant, surtout si on discerne un éclairage pouvant (mais toujours pas certain hein) être provoqué par une voiture.

Il est en tous les cas à craindre que plus les intérêts économiques seront stratosphériques et plus les conséquences sociétales dramatiques pourront être cachées derrière une véritable opacité technique, moins nous parviendrons à des certitudes.

Conclusion

Nous sommes donc à ce moment historique paradoxal où nous sommes à la fois conscients que le risque de chamboulements dramatiques de nos sociétés grandit, et incapables de garantir qu’une grande partie du contenu que l’humanité consomme n’est pas en train d’empirer notre situation déjà précaire. Non contents d’être incapables de promouvoir du contenu qui réduise les risques existentiels de l’humanité, nous sommes peut-être (mais attention rappel : il ne faut pas le dire parce qu’on n’est pas certains à 100%) en train de diffuser à l’échelle planétaire des vidéos, des articles et des commentaires qui précipitent encore un peu notre course vers un mur de Fermi toujours plus épais.¹⁷

Pour résoudre ce paradoxe, il nous faudrait d’abord éviter que les algorithmes de recommandation promeuvent activement des contenus qui vont évidemment à l’encontre de l’intérêt général en les encadrant pour qu’ils cessent de recommander massivement des vidéos climato-sceptiques ou scientifiquement mensongères.

Mais cette première étape nécessaire n’est même plus suffisante. On ne peut pas se contenter d’éviter de détruire le peu de conscience de l’intérêt général planétaire que nous avons. Il nous faut construire cette conscience collective de toutes pièces. Ne pas pro activement la construire, c’est choisir de ne rien changer au status quo actuel qui aggrave tous les jours le changement climatique en cours. Choisir le status quo aujourd’hui revient à opter pour un “atterrissage” plein fer sur une dalle en béton.

Si nous voulons ne serait ce que mettre un tapis de sol premier prix (et ça serait déjà pas mal) entre nous et la dalle en béton, il nous faut devenir capable de biaiser les recommandations non pas dans le sens d’une plus grande extraction de l’attention humaine mais dans le sens de la maximisation de l’intérêt général planétaire.

C’est exactement l’ADN de ce que cherche à faire le projet Tournesol dont je parle dans la suite de cette série :

En attendant et sur ce tournesol, je vous souhaite

Paix et santé,

Et tant que vous êtes là ;), voici 5 manières de suivre et de soutenir le projet d’ApresLaBiere :

1) Soutenir ApresLaBiere sur Tipeee (occasionnellement parce que cet article était génial ou régulièrement pour l’ “ensemble de l’oeuvre”)

2) Vous abonner à la “gazette” sans oublier d’ajouter jeanlou(at)apreslabiere.fr à vos emails favoris :

3) Applaudir (en cliquant longtemps sur les petites mains) et commenter ici, directement sur ApresLaBiere.fr :)

4) Liker et suivre ApresLaBiere sur facebook, twitter ou instagram

5) Penser à faire appel à Homo Conscientus (moi :)) pour des conférences, des formations ou des ateliers sur le sujet dans votre organisation ou école.

Un énorme merci à Anthony Ozier dans la conception et la relecture de cette série ! Un grand merci aussi à tous les gens qui m’ont relu et m’ont donné de précieux conseils : Gaëtan Séverac et les membres de Tournesol.app (Louis, Aidan, Adrien, Lê…)

SOURCES / LIENS / POUR ALLER PLUS LOIN :

¹ D’après les déclarations de Youtube : https://www.cnet.com/tech/services-and-software/youtube-ces-2018-neal-mohan/
² Vidéo de Lê de la chaîne Science4All “Google démantèle son éthique (et tout le monde s’en fout…)
³ Voir la définition de Wikipedia : https://en.wikipedia.org/wiki/AI_alignment
Sur ces sujets, les podcasts “Your undivided attention” sont une mine quasi inépuisable, notamment celui avec Guillaume Chaslot, ancien ingénieur de l’algorithme de Youtube.
Un article qui décrit à quel point les USA (et c’est de plus en plus valide pour les autres démocraties) sont malades de la polarisation (et l’article date d’avant les événements du Capitole) : A sick giant
Sur le lien entre réseaux sociaux et faiblesse des régimes démocratiques dans le monde, la thèse de Barbara F. Walter dans son livre “How civil wars start” est intéressante. Elle en parle dans cet épisode de Your undivided attention.
On est tombé à bras raccourcis sur Bohler pour son livre “Le Bug Humain”. Ce livre n’en reste pas moins intéressant dans le sens où il met en avant la difficulté de résoudre les enjeux écologiques qui nécessite des actions basées sur une vision collective à long terme en écoutant nos envies individuelles à court terme.
Vidéo de Veritasium : “My video went viral, here’s why
Article des Facebook Files “Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead”.
¹⁰ J’ai déjà beaucoup parlé de ces sujets, dans mes chroniques Arrêt sur Images ou bien ici-même, notamment dans cet article : “Les réseaux sociaux, poison ou médicament ?
¹¹ Attention, c’est risqué… “Very satisfying
¹² Pour cette partie, je me suis très largement inspiré de cette très bonne vidéo : “How does Netflix recommend movies Matrix factorization
¹³ Si vous êtes sur Toulouse, n’hésitez pas à passer à l’Eurekafé c’est sympa, j’y suis les jeudi soirs si vous voulez discuter.
¹⁴ Pour celles et ceux qui ont par la ref, je parle de ça.
¹⁵ Ce champ s’appelle en anglais l’ “Explainable AI
¹⁶ Face à AOC, Zuckerberg est très incertain de tout. “On the top of his head”, il ne sait probablement pas ce qu’est Facebook.
¹⁷ Voir le paradoxe de Fermi

--

--

"La seule liberté, c'est de comprendre ses conditionnements", chroniqueur à ASI, abonnez vous à la gazette d'apreslabiere.fr : http://eepurl.com/dnS6WD