L'IA: promesses, déceptions et mensonges

Il y a en ce moment beaucoup de débats autour de l'intelligence Artificielle (IA) : est-ce que ça marche ? Dans quels contexte est-elle utile ? Est-il éthique de l'utiliser ? Sous quelles conditions ? Quid des droits d'auteurs ? Des impacts écologiques ? Des biais ? De l'exploitation néocoloniale ?

Dans ce billet, je m'essaie ici à un tour d'horizon du sujet dans ses grandes lignes : ce qu'est vraiment l'« IA », les promesses que ce terme représente, la manière dont l'industrie de l'IA échoue à accomplir ces promesses, et finalement les enjeux politiques et idéologiques qui sous-tendent la vision du monde et de l'IA que nous vend la Silicon Valley.

L'Intelligence Artificielle, son histoire et ses promesses

De quoi parle-t-on exactement ?

Il est délicat de parler de l'« IA » de manière générale, en particulier de manière historique : le sens du terme a évolué avec le temps, et les débats sémantiques sur ce qui peut être considéré ou non comme de l'IA sont nombreux et souvent stériles. Néanmoins, je trouve que l'on peut identifier une continuité assez claire dans l'imaginaire que ce terme invoque : l'idée d'une création artificielle (ou machine) qui raisonne et pense.

Cet imaginaire n'est pas nouveau : dès l'antiquité l'humanité fabriquait des automates, et le sujet de la création de vie artificielle se retrouve dans de nombreuses légendes. Moins loin dans le passé, on peut citer célèbre le Turk mécanique au 18e siècle, ou encore le récit de Frankenstein au siècle suivant.

Mais c'est avec la naissance de l'informatique et de la robotique que l'imaginaire de l'IA a vraiment explosé, au 20e siècle et dans la science-fiction telle que nous la connaissons. Cet engouement est notamment passé par la rencontre avec la notion philosophique de « raisonnement formel » : l'idée de vouloir décrire (et produire) des déductions et des prises de décision de manière objective et mathématisée, indépendamment de la subjectivité humaine. Les ordinateurs nous ont fourni un support matériel aux calculs mathématiques d'une incroyable efficacité, il n'est pas surprenant qu'on ait rapidement voulu y intégrer ces théories mathématiques pour essayer de créer des machines qui raisonnent. L'image du robot comme « un humain de métal » était à portée de main, et la science-fiction s'en est emparée.

De mon point de vue cet imaginaire est le cœur de l'IA, et c'est ce que je vais donc utiliser comme définition du terme dans ce billet : des machines et des algorithmes dont l'objectif serait de penser, raisonner, créer, et prendre des décisions comme le feraient des humains, voire mieux. Si les différentes itérations historiques d'IA avaient des supports technologiques différents, la volonté centrale était toujours celle-là.

Une courte histoire de l'IA

L'histoire moderne de l'IA se décrit souvent sous la forme d'une succession de périodes de « printemps » de grand engouement et de grandes promesses, suivis d'« hivers » de désillusion face aux promesses non tenues, et de désintérêt global pour le sujet. Je ne vais que survoler les détails historiques dans ce billet, n'hésitez pas à vous tourner vers la page Wikipédia Histoire de l'intelligence artificielle pour un récit détaillé.

Un motif assez clair se dégage de ces cycles : la recherche en IA est alimentée par un optimisme déraisonnable, qui amène les chercheurs et entreprises du milieu à régulièrement promettre bien plus que ce qu'ils sont capables de faire. L'engouement enfle jusqu'à ce que le parpaing de la réalité vienne écraser la bulle financière, et les investisseurs se désintéressent du sujet, se sentant trompés et trahis.

Lors du premier grand hiver, l'IA s'est heurtée aux limites calculatoires. Dans les années 1970, les puissances de calcul étaient très loin d'être celles dont on dispose aujourd'hui, et les algorithmes d'IA étaient donc limités à ne pouvoir traiter que des version extrêmement simplifiées des problèmes. Construire les bases de données et rassembler la puissance de calcul nécessaire à des applications réalistes semblait tout simplement hors de portée. À cette époque déjà, des philosophes critiquent cette approche de l'IA, tant sur le plan théorique que sur le plan éthique, mais sont assez largement ignorées par les chercheurs.

Par la suite, l'IA renaît dans les années 1980 sous la forme des Systèmes experts : il s'agit de tentatives de créer des logiciels capable de stocker et d'utiliser les connaissances scientifiques comme le feraient des experts humains, en vue de prendre des décisions. Une des questions au cœur de la recherche était celle de la culture générale : comment pourrait-on donner à une machine tout le contexte de connaissances générales sur lequel chaque personne s'appuie au quotidien ?

La bulle éclate à la fin des années 1980 : les systèmes experts s'avèrent coûteux à maintenir, difficiles à mettre à jour, peu robustes et susceptibles de faire des prédictions grotesques. De manière générale, leur applicabilité concrète se restreint à quelques contextes très spécifiques, bien loin de la révolution grand public dont on rêvait.

Beaucoup d'évolutions se font dans les décennies qui suivent, mais le nouvel engouement pour l'IA ne commence vraiment qu'autour de 2010. Plusieurs innovations techniques ouvrent la voie à ce qu'on nomme aujourd'hui l'« apprentissage profond » ( ou « Deep Learning » en anglais). Il s'agit d'algorithmes gigantesques, qui sont « entraînés » sur d'immenses bases de données. Leur premier succès se manifeste en 2012, sous la forme du modèle AlexNet qui remporta le concours ImageNet sur une tâche de classification d'images naturelles : trier des photographies en fonction de ce qu'elles mettent en scène.

C'est à cette époque que commence à naître une nouvelle vision de l'IA : finalement, chercher à fournir aux modèles la connaissance humaine préexistante ne serait peut-être pas aussi nécessaire qu'on le pensait. Via ces techniques d'apprentissage, le modèle d'IA peut extraire cette connaissance de lui-même, directement depuis les données d’entraînement, et peut-être mieux que ne pourrait le faire un être humain...

Depuis, le gigantisme des modèles de Deep learning n'a fait que croître de manière exponentielle. Là où AlexNet avait 60 million de paramètres en 2012, VGG-19 en avait 144 millions en 2014, GPT-2 affichait 1,5 milliard de paramètres en 2019, et il est estimé que GPT-4, colonne vertébrale du célèbre ChatGPT sortie en 2023, est composé de 1,76 mille milliards de paramètres. Pour donner un ordre de grandeur, cela voudrait dire qu'il faut presque 13 To de disque dur simplement pour stocker les paramètres du modèle.

Aujourd'hui, « Intelligence Artificielle » est quasiment synonyme de « Deep Learning », voire même de « Large Language Model » (LLM), ou « modèle de language profond ». Ces derniers sont une famille de modèles dont GPT-4 est probablement l'exemple le plus connu, spécialisés dans le traitement du texte. Et si leurs résultats sont bluffants, l'envers du décors commence à devenir visible, et les critiques s'accumulent. J'y dédie le plus gros de ce billet.

Le rêve que nous vendent les « techbros »

Le centre d'attention des activités autour de l'IA est aujourd'hui composé des entreprises de la tech de la Silicon Valley ; on pourra citer notamment des noms comme OpenAI, Microsoft, Facebook/Meta, Google/Alphabet ou encore Amazon. Ces entreprises et leur culture « techbro »1 sont de fait les acteurs qui façonnent l'imaginaire actuel de l'IA : tant via les produits qu'ils veulent nous vendre que par le futur qu'ils veulent nous faire accepter comme inévitable. Avant de m'atteler à la déconstruction de ce récit, je vais commencer par en faire un court résumé.

Les entreprises de la tech nous vendent aujourd'hui l'image de l'IA comme celle d'une révolution sans précédent qui serait à portée de main. Elles seraient à quelques années tout au plus de la conception d'IA qui surpasseraient les humains sur tous les plans, et leur arrivée bouleverserait le monde entier de manière très profonde.

On met en avant la capacité supposée de systèmes comme ChatGPT à accomplir de nombreuses tâches mieux et plus rapidement que les humains, et la promesse que de nombreux métiers seront bientôt désuets, remplacés par des LLM : il passerait avec succès l'examen d'une faculté de droit, d'une prestigieuses business school, voire même serait si avancé qu'il commencerait à montrer des signes de conscience et aurait passé le test de Turing.

En bref, le récit est clair est unanime : les IA surhumaines dont l'imaginaire SF regorge, comme SkyNet ou les machines de Matrix seraient à portée de main. Leur création ne serait qu'une question de temps, d'années tout au plus, et il serait donc crucial de donner toute liberté et moyens à ces entreprises pour qu'elles puissent s'assurer que ces IA soient effectivement bénéfiques et au service de l'humanité, et nous éviter un scénario catastrophe apocalyptique.

Si vous aussi, vous avez l'impression que ce récit est parti très vite, très loin, et bien vous avez raison. Depuis quelques années ces entreprises sont lancées dans une course en avant pour tenter de maintenir l'engouement pour leurs produits. Car la bulle semble s’essouffler de plus en plus, OpenAI est un gouffre financier qui peine à devenir rentable, et l'hostilité populaire contre l'IA monte de plus en plus.

Dans la suite de ce billet, je vais tâcher de déconstruire ce récit que nous vend « Big Tech », et vous donner une vue d'ensemble de ce qu'accomplit vraiment l'« IA », et des enjeux politiques dans lesquels cette discussion s'inscrit. Je ferai ça en deux sections : tout d'abord je reviendrai sur les manières dont ces systèmes sont survendus, et ne peuvent pas tenir les promesses de la Silicon Valley, ainsi que tous les aspects qui sont glissés sous le tapis. Dans la seconde section je pousserai l'analyse plus loin, en vous présentant les critiques des idéologies qui sous-tendent cet écosystème et d'à quel point le monde qu'elles veulent construire est dystopique.

L'envers du décor

Il y a beaucoup de choses à dire sur la réalisation concrète de l'IA telle qu'elle nous est vendue. Je pense qu'un très gros aspect peut être résumé en l'aphorisme anglophone « Fake it until you make it. », que l'on pourrait traduire en français par « Faîtes semblant jusqu'à ce que vous y arriviez. ».

En 2018, un article du Guardian mettait la lumière sur une pratique étrangement courante au sein des startups d'IA : vendre un produit d'intelligence artificielle, mais qui fonctionnait en secret à l'aide d'une armée d'humains, dont le rôle était de se faire passer pour des IA auprès des clients. Dans une interprétation charitable, l'objectif ici était pour ces startups de commencer à vendre leurs produits et mettre en place leurs clientèles sans avoir à attendre d'avoir fini de développer leurs systèmes d'IA, avec comme pari qu'elles pourront le mettre en place rapidement. Une interprétation moins charitable pointera que, n'en déplaise aux techbros, employer des humains sous-payés à se faire passer pour des chatbots reste plus rentable financièrement que vraiment essayer de construire une IA.

Voilà une image qui donne le ton, mais il y a beaucoup d'aspects à explorer, cela va beaucoup plus loin.

Un focus sur le facile plutôt que l'utile

C'est un premier aspect qui n'est pas forcément très visible de l'extérieur de l'industrie, mais que je trouve assez flagrant de ma place de chercheuse : en très grande majorité, les modèles dont on parle et qui font le buzz ne s'attaquent qu'à des problèmes « faciles ». Je mets « facile » entre guillemets car il s'agit bien sûr d'une facilité relative. Les accomplissements de modèles comme AlphaFold n'ont rien de triviaux.

Mais tous les gros succès récents de l'IA ont deux caractéristiques centrales en commun :

  • Ils s'attaquent à un problème qui est soit parfaitement défini mathématiquement, soit pour lequel des quantités de données d'entraînement gigantesques sont disponibles.
  • Ils ont a leur disposition des puissances de calcul énormes.

Prenons par exemple un exemple que je trouve très illustratif : AlphaGo. Il s'agit d'un modèle développé par Deepmind qui s'est imposé en 2016/2017 comme étant la première IA a dominer le jeu de Go, qui jusqu'alors restait hors de portée des ordinateurs. Les jeux de plateau comme le Go sont un exemple parfait de contexte qui remplit la première caractéristique : les règles du jeu sont strictes et rigides, faciles à décrire mathématiquement. Il s'agit d'un problème clos dans lequel l'imprévu n'existe pas. Concernant la puissance de calcul, on sait que AlphaGo Zero (la dernière version d'AlphaGo) a été entraîné sur l'équivalent de près de 5 millions de parties de Go, pour un coût d’entraînement estimé à 35 millions de dollars.

Autre exemple, plus récent : GPT-4, le modèle derrière ChatGPT. Si OpenAI reste secrète concernant les détails, on a quelques ordres de grandeur : les données d'entraînement sont composée d'un large corpus de texte, pour une taille totale de l'ordre de 10 000 milliards de mots (soit environ 40 milliards de pages). Ou encore l'IA générative Midjourney, dont on estime que la base de données d'entraînement est composée d'environ 650 millions d'images annotées.

Au sein des communautés de recherche en IA, disposer d'autant de données d'entraînement est un luxe, luxe que ces entreprises ne peuvent se permettre que parce qu'elles s'attaquent à des tâches pour lesquelles récolter ces données ne leur demande rien (ou presque, j'y reviendrai) de plus que simplement télécharger le contenu d'internet sans réfléchir.

Dès que l'on s'éloigne de ce contexte, pour s'intéresser à des tâches plus spécialisées, cette abondance disparaît très rapidement. Mais malheureusement, l'écrasante majorité des applications potentielles concrètes de l'IA sont dans cette seconde catégorie.

Le buzz de l'IA est en grande partie construit sur des sujet où ces entreprises on pu avoir des résultats impressionnants par la simple force de leur gigantisme, mais ces résultats, aussi impressionnants soient-ils, peinent à se traduire en des apports concrets.

Une illusion de généralité

Ces modèles phares sont entraînés sur des bases de données larges et hétérogènes, dont même les concepteurs ne savent pas ce qu'elles contiennent vraiment, car elles sont beaucoup trop grosses pour avoir été évaluées sérieusement2. Pour que ceci puisse avoir du sens, il est donc nécessaire pour ces entreprises de construire un narratif dans lequel utiliser de telles bases de données puisse malgré tout être pertinent : arrive ici l'idée de l'intelligence artificielle générale (AGI).

Dans ce contexte, construire un modèle général qui fasse illusion est, contre-intuitivement, beaucoup plus facile que de développer un modèle spécialisé : il suffit de produire une IA qui a des résultats médiocres dans de nombreux domaines, mais malgré tout suffisamment efficace pour tromper les personnes non-expertes. C'est exactement ce que font les modèles de langage grand public, comme ChatGPT, Copilot, Claude, Gemini, ...

Ça devient de plus en plus flagrant : les modèles comme ChatGPT sont avant tout des baratineurs. Entraînés pour toujours fournir une réponse qui satisfera les utilisateurices, ils font la chose la plus évidente : balancer des affirmations qui ont l'air plausibles, du bullshit3. La plupart des gens n'y voient que du feu et ne se méfient pas. Somme toute, ChatGPT s'inscrit à merveille dans l'ère d'indifférence à la vérité qui semble imprégner une grande partie du monde médiatique. Il a toujours quelque chose à dire, que ça soit vrai ou faux n'a pas beaucoup d'importance.

Là où cela pose problème, c'est que ChatGPT n'est pas vendu comme une machine à bullshit, mais comme une IA avancée qui compilerait l'intégralité du savoir humain, avec « certes quelques petits bugs restants, mais qui seront bientôt résolus ». En vérité, on constate tout un tas d'exemples qui montrent le contraire : 50% d'erreur sur des questions de programmation, incapacité à correctement résumer des articles de presse, références bibliographiques inventées, ...

Mais le récit passe et est accepté par beaucoup de gens. De nombreuses personnes font confiance à ChatGPT et ses cousins, qui profitent de cette aura de supériorité intellectuelle que les grandes boîtes de la Tech leur ont tissé. Cette confiance démesurée dans ces outils a des conséquences, en illustration cette étude de Microsoft qui, en janvier 2025, suggérait que l'utilisation quotidienne d'IA amenait à inhiber la pensée critique.

Comme j'aime à le répéter : il me semble clair que le plus gros risque que l'on court avec les technologies d'IA est celui d'accorder une confiance démesurée à des outils médiocres, et non pas la naissance d'une IA surpuissante qui prendrait le contrôle du monde.

Au delà de la médiocrité, les biais oppressifs

Si seulement ces IA étaient simplement incompétentes, le problème ne serait pas aussi dramatique. Mais ces modèles ne sont pas incompétents n'importe comment : ils incorporent, reflètent et renforcent les biais de leurs concepteurs, et des données sur lesquelles on les entraîne.

Ces problématiques sont notamment présentées en détail dans l'article « On the Dangers of Stochastic Parrots: Can language Models Be Too Big? 🦜 » de Bender, Gebru, McMillan-Major et Mitchell (lien vers l'article anglais) 4. Il est trop long pour le résumer en détail dans ce billet, mais je vais en extraire ici quelques uns des points principaux.

Les LLMs sont des modèles qui sont avant tout entraînés à générer des textes qui ressemblent à leurs corpus d'entraînement. Ceci veut dire qu'ils vont avoir tendance à reproduire toutes sortes de caractéristiques de ces textes, et ceci est notamment vrai pour les biais racistes, sexistes, validistes, LGBT-phobes, etc. Or, les données sur lesquelles on les entraîne sont, en grande partie, issues d'un téléchargement brut à et peine filtré de ce que l'on trouve en public sur internet, avec en première place les réseaux sociaux5.

Mais internet est très loin d'être une place publique égalitaire, contrairement à ce que certains aiment à croire. Le droit de parole y est de fait quasi-monopolisé par certains groupes, avec au sommet de la pyramide, comme d'habitude, les hommes cis hétéros blancs. De nombreuses dynamiques de pression sociale et de harcèlement font que les groupes plus marginalisés, chassés des espaces publics, se regroupent dans des communautés privées. Les données téléchargées et servant d'« exemple représentatif » pour les LLMs sont donc en majorité composées des points de vue de ces hommes blancs cis hétéros. Les techbros qui conçoivent ces modèles sont largement issus de la même démographie, et ne perçoivent pas ça comme un problème ou un biais à régler ; ils n'ont donc rien fait pour corriger ces déséquilibres.

Les LLMs, loin d'être une « représentation de la connaissance de l'humanité tout entière », sont donc une représentation de la vision du monde d'une petite partie de l'humanité : celle qui occupe déjà la place la plus dominante et est sur-représentée dans les médias et sur les réseaux sociaux. En reproduisant ces corpus, les LLMs tendent donc à reproduire et renforcer les biais et préjugés déjà existants. Étant de plus entraînés sur une version figée, passée, d'internet, ils contribuent à augmenter l'inertie de la société face au changement, freinant l'évolution des connaissances et des vocabulaires.

Prenez par exemple cet article de Birhane, Prabhu et Kahembwe : les auteurices analysent une base de données nommée LAION-400M et rendue publique pour l'entraînement d'IAs. Cette base de données est composée d'images, chacune accompagnée d'une série de mot-clefs qui en décrit le contenu. Les chercheureuses y ont constaté de nombreux exemples d'images à caractère pornographique (incluant des scènes explicitement décrites comme des viols par leurs métadonnées), ainsi que de nombreux stéréotypes sexistes et racistes.

L'exploitation coloniale au service de l'IA

Si les LLMs sont entraînés sur des données non filtrées d'internet, comment se fait-il que ChatGPT ne montre pas les mêmes problèmes qu'en son temps l'IA Tay de Microsoft, qui en 2016 avait sombré dans le racisme et la misogynie ?

OpenAI a trouvé comment résoudre ce problème (sans pour autant s'abaisser à raffiner ses données d'entraînement bien entendu) : les ingénieurs ont développé une méthode pour réajuster leurs LLMs lors d'une seconde étape d'entraînement, à l'aide d'un retour humain. Le principe est simple : faire générer au modèle plusieurs tentatives de réponse à une question, et avoir un humain qui note ces réponses, afin de guider le modèle pour s'améliorer. On peut ainsi décourager le LLM de produire des réponses trop ouvertement biaisées, ou que les utilisateurices trouveraient peu pertinentes.

Problème résolu ? Pas tout à fait, je n'ai pas encore parlé de qui a été chargé de faire ce travail de notation. La réponse nous a été apportée par le Guardian, qui en 2023 a publié une enquête sur les condition de travail des travailleurs kényens qui ont accompli ce travail. Le journal y décrit des conditions de travail misérables, sous-payées et traumatisantes, à devoir trier et modérer à la chaîne du contenu extrêmement violent, sans aucun accompagnement psychologique.

La vérité, c'est que l'IA si mise en avant par les géants de la Tech est encore construite sur une quantité gigantesque de travail humain. La préparation, le tri, et l’étiquetage des données est une tâche longue, répétitive, et usante. Ce ne sont bien évidemment pas les ingénieurs de la Silicon Valley qui s'en chargent, et ce travail est délocalisé dans des pays d'Afrique ou d'Asie, dans une lignée directe des dynamiques néocoloniales encore bien présentes. On se souviendra que déjà, en 2018, Amazon Mechanical Turk proposait ce genre de "services".

Un bilan écologique négatif

Le dernier point que je vais évoquer dans cette section du billet est la question écologique. L'IA telle qu'elle est pratiquée depuis ces dix dernières années est fondamentalement appuyée sur une augmentation perpétuelle des ressources de calcul et de données. Et ces ressources sont, elles, bien matérielles.

Ces dernières années on a vu fleurir de nombreux projets de constructions de data centers spécialement dédiés à l'IA, partout dans le monde, y compris en France. Ces data centers représentent une consommation conséquente d'énergie et d'eau, mais sont également des projets de constructions massifs, et sont une source importante de déchets électroniques.

Je ne compte pas rentrer dans les détails des enjeux écologiques de l'IA, mais il y a quelques points qui me semblent pertinents à garder en tête pour avoir une bonne idée de la balance coût/bénéfice :

La dystopie idéologique

Tout ceci est déjà très gros, et place l'IA en bonne place parmi les désastres sociaux et humains dont le capitalisme est si fécond. Il serait cependant trop superficiel d'en rester là, car la Silicon Valley ne nous pousse pas ces IA par la seule volonté de profits capitalistes, il y a également un agenda politique et idéologique très marqué à la vision du monde qui l'accompagne.

L'autoritarisme sauce IA

Le déploiement massif de l'IA pose un enjeu politique et démocratique majeur : celui de la prise de décision, de la responsabilité, et de la concentration du pouvoir.

J'ai pointé dans la section précédente les prises de décisions algorithmiques sont source de discrimination, mais si j'ai pu alors donner l'impression que c'était avant tout une question d'incompétence et de négligence, il ne faut pas oublier qu'il s'agit également d'une question de contrôle. Une décision algorithmique n'est pas prise par un humain, dès lors, vers qui se tourner pour la contester ? Qui engage sa responsabilité ?

Lu sous cet angle, il apparaît que la poussée vers l'adoption de l'IA vise également à éroder le contrôle démocratique sur les entreprises privées. Prenez par exemple les voitures Tesla et leur auto-pilote : l'entreprise a déployé cette fonctionnalité de manière large, mais se bat bec et ongles pour n'en aucun cas être tenue responsable des accidents causés.

Une décision algorithmique ôte énormément de contrôle à la personne qui la subit, et ce pour plusieurs raisons :

  • Ces décisions sont souvent opaques et peu justifiées. Il est difficile de contester le bien fondé d'un choix sans savoir ce qui l'a motivé.
  • L'impression d'objectivité qui a été construite autour des IA donne par défaut une légitimité à la décision algorithmique, ce qui réduit en retour la légitimité accordée à ses victimes de la questionner.
  • Même si une décision particulière est remise en question, elle est mise de côté comme « un cas particulier », un « petit bug » de l'algorithme. Ceci rend presque impossible de remettre en question l'algorithme lui-même et ses critères de choix : « On y peut rien, c'est l'algorithme qui a décidé ça. »

De manière générale, les IAs sont poussées d'une manière qui vise à standardiser le monde : étant donné qu'elles ne peuvent pas prendre en compte toute la complexité sociale de l'humanité, la réponse qu'apportent les techbros est qu'il faut simplifier la société, la standardiser, en éliminer les cas particuliers. Ça vous rappelle quelque chose ?

Sans oublier que l'IA est très populaire pour les applications militaires, dans lesquelles les géants de la Tech collaborent volontiers, sourds aux critiques internes. Mais les autres axes de contrôle des populations ne sont pas en reste : surveillance de masse, crime prédictif, et même justice prédictive, l'IA fournit une large panoplie d'outils au service des autoritarismes, et ces derniers ne se privent pas.

La destruction du travail par l'IA

Je ne vais l'apprendre à personne : nous vivons dans un monde capitaliste, dans lequel le travail est un enjeu majeur pour presque tout le monde. Les travailleureuses voient leur vie dépendre de leur capacité à travailler, et les entreprises cherchent à exploiter ce travail au plus bas prix possible.

Dans ce contexte, l'IA offre aux chefs d'entreprise la promesse d'une force de travail très bon marché, et totalement docile. Et les entreprises sont bien sûr très intéressées ! L'avantage est double : d'une part on pourrait licencier une partie de ses employés, mais en plus l'augmentation du chômage qui en découle augmente la pression de compétition sur le reste des travailleureuses, basculant encore plus le rapport de force en faveur des patrons.

Bien évidemment, comme je l'ai montré plus haut, la capacité des IA à effectivement prendre la place d'une grande fraction des emplois est douteuse... à condition de ne pas baisser ses standards. Or, c'est exactement ce qu'on observe : oui, le remplacement des humains par des IAs donne très souvent des résultats médiocres, mais il promet aux entreprises de réduire leurs dépenses encore plus ! Dans la course au rendement, leur choix est clair : tant que la clientèle est prête à accepter la baisse de qualité, on peut continuer à foncer.

Il suffit de voir les débats actuels autour de la création artistique et des IA génératives, la tendance est très claire : après avoir pillé internet, les entreprises d'IA s'attachent à remplacer les artistes par leurs modèles. On peut citer par exemple spotify qui utilise de la musique générée par IA pour payer moins de droits d'auteurs, ou la manière dont de plus en plus de studios font appel à l'IA pour produire leurs affiches publicitaires, et même les couvertures de livres dans le milieu de l'édition, quand ce ne sont pas des livres entiers générés par des IA. Plus récemment, les plateformes de VOD s'essaient à l'utilisation de modèles d'IA pour le doublage automatique des films et séries.

TESCREAL

Finalement, cerise sur la gâteau, les grands acteurs de l'IA sont au cœur d'un groupe idéologique qui a été décrit par les chercheureuses Tminit Gebru et Émile P. Torres sous la forme de l'acronyme « TESCREAL » : Transhumanisme, Extropianisme, Singularitarisme, Cosmisme, Rationalisme, Altruisme Efficace et Long-Termisme. Vous pouvez trouver là l'article dans lequel iels posent leur analyse (en anglais).

Je ne pourrais pas faire justice à la profondeur de leurs travaux dans ce billet, mais dans les grandes lignes, il s'agit d'une famille idéologique qui hérite directement de l'eugénisme du début de 20e siècle. Cette famille avance une vison du monde technocratique et autoritaire, dans laquelle une poignée d'élites scientifiques est responsable d'agir pour la sauvegarde et le bon développement de l'humanité. Mais on parle ici de l'humanité perçue dans un futur lointain et fantasmé, composée de millions de milliards d'êtres humains colonisant la galaxie.

Ce futur utopique sert alors de justification à une politique de type « la fin justifie les moyens » : il s'agit d'un objectif tellement grandiose et important qu'il serait crucial d'y consacrer toutes les ressources de l'humanité actuelle. Les problématiques contemporaines comme les oppressions racistes, sexistes, néocoloniales ou les enjeux écologiques majeurs sont perçues comme dérisoires, et y consacrer de l'énergie et du temps serait une perte immorale injustifiable.

Cela peut sembler trop gros pour être vrai, mais un exemple criant de ces idéologies se trouve en Elon Musk lui même, et son plan grandiose de coloniser Mars. Il considère ce projet comme ce qui devrait être la priorité numéro 1 de l'humanité, et tant pis si ses efforts de se rendre sur la planète rouge condamnent la Terre. L'enjeu pour Musk est de créer sur Mars sa société idéale, probablement sur un modèle Néo-Féodal et avec une poignée d'humains soigneusement sélectionnés, en laissant derrière lui la Terre et son encombrante population.

L'IA joue un rôle central dans cette vision du monde : qu'il s'agisse d'une quasi-divinité dont l'avènement résoudra tous les problèmes du monde lors d'une hypothétique « singularité », ou d'un danger mortel qui menace l'humanité, il est essentiel de la contrôler, et de s'assurer qu'elle soit bien au service de l'élite technocratique. Ce récit peut sembler surréaliste et conspirationniste, et pourtant, cela fait plusieurs années maintenant qu'on a régulièrement des retours comme quoi, au sein d'OpenAI, les choses prennent une tournure assez sectaire...


  1. Le terme « techbro » est un anglicisme péjoratif, il désigne la culture masculine voire masculiniste, très « Boy's Club » que l'on retrouve dans de grands segments des industries de la tech (tant l'IA que les cryptomonnaies notamment).

  2. Prenez par exemple cet article (en anglais) de Birhane et Prabhu, qui analyse une base de données d'images largement utilisée pour l'entraînement de ces gros modèles, montrant qu'elle contient des contenus pornographiques explicites, résultant du manque de contrôle de la part des personnes qui ont construit ladite base de données.

  3. Voir par exemple (en anglais) : ChatGPT is Bullshit

  4. Cet article a notamment valu à une de ses autrices, Dr Timnit Gebru, d'être licenciée de son poste de co-directrice d'une équipe de recherche sur l'éthique de l'IA, chez Google. Une autre des autrices, Margaret Mitchell, a également été licenciée par Google plusieurs semaines plus tard, après qu'elle ait cherché à documenter la discrimination dont Gebru avait été victime au sein de l'entreprise.

  5. On a depuis eu la confirmation que ces modèles intégraient également la quasi totalité des ouvrages de libgen.