Article

Les contradictions de l’«intelligence artificielle»

Larry Lohmann

—30 décembre 2021

Alors que le capital se penche sur son tournant « informationnel », alimenté par l’implication massive de l’État, il est essentiel de préciser qu’il n’abandonne aucune de ses contradictions fondamentales.

Les luttes politiques depuis le 19e siècle ont poussé à plusieurs reprises les mouvements de gauche à chercher des points d’ancrage parmi les contradictions exponentielles et toujours renouvelées de la mécanisation industrielle capitaliste et de son rapport au travail et à l’énergie. À peine entamées par Karl Marx, l’un de leurs grands pionniers, ces recherches et expériences restent fragmentaires et contestées1. Pourtant, les crises qui surgissent et sont exacerbées par la mécanisation numérique du 21e siècle, même si elles confrontent la gauche à de nouvelles énigmes, peuvent offrir des possibilités d’éclairer d’un jour nouveau cette longue histoire de l’automatisation.

Cet essai présente trois lignes d’argumentation en réponse à ces défis. La première est qu’il peut être plus utile pour l’organisation du mouvement de souligner les continuités entre la création de la valeur de l’ère industrielle et de l’ère numérique que de se concentrer uniquement sur les différences. La seconde est que la contradiction entre le travail vivant et le travail mort, identifiée par Marx au 19e siècle, non seulement persiste dans les recoins les plus cachés de l’économie numérique d’aujourd’hui, mais reste fondamentale à la fois pour comprendre la crise et pour identifier les possibilités de changement politique radical. La troisième est qu’il peut être plus stratégique pour la gauche d’aborder les innovations frappantes en matière d’automatisation avancées au cours de la dernière décennie par Big Tech comme un nouveau niveau de mécanisation du travail d’interprétation que de se plier à des étiquettes déconcertantes telles que l’intelligence artificielle (IA).

La contradiction entre le « savoir mort du capital » représenté par les algorithmes et les ordinateurs et le « savoir vivant du travail » n’est pas une « nouvelle forme d’antagonisme » remplaçant la « traditionnelle opposition entre travail mort et travail vivant inhérente au capitalisme industriel » 2. Il s’agit, en substance, du même antagonisme. Au 19e siècle, les mouvements syndicaux auraient été voués à l’échec s’ils avaient accepté le fantasme naissant selon lequel le processus de division du travail combiné à la mécanisation alimentée par les combustibles fossiles représentait les premiers stades d’une approche asymptotique vers un hypothétique état final du capitalisme dans lequel tous les travailleurs pourraient être complètement et à jamais déqualifiés, tout le travail humain remplacé, rendu superflu et sans valeur et autorisé à se détendre sous la supervision bienveillante des machines, et toutes les connaissances transférées dans des machines auto-approvisionnées qui pourraient ou non rester sous le contrôle des capitalistes dont le dynamisme, l’ingéniosité et l’autodiscipline étaient censés être à l’origine.

Aujourd’hui, il serait tout aussi vain pour les mouvements syndicaux de suivre ce qu’Aaron Benanav appelle le « nouveau discours sur l’automatisation, proposé par des analystes libéraux, de droite et de gauche » , selon lequel « nous sommes sur le point de parvenir à une société largement automatisée, dans laquelle presque tout le travail sera effectué par des machines qui se déplacent toutes seules et des ordinateurs intelligents » et où les humains peuvent être mis au rancart pendant que le capitalisme (ou le communisme entièrement automatisé) se poursuit3.

Souligner les continuités entre l’ère industrielle et l’ère numérique est plus utile que de se concentrer uniquement sur les différences.

C’est pourquoi il peut être utile d’éviter le jargon de l’intelligence artificielle pour lui préférer le terme de machine d’interprétation4. Depuis l’époque de Charles Babbage, les principales fonctions du mot « intelligence » ont été de dissimuler le travail prolétaire, de renforcer les divisions de classe, de race et de sexe, et de justifier la surveillance sociale.

Au 19e siècle déjà, les efforts de l’élite pour donner aux machines l’apparence de l’intelligence allaient de pair avec des tentatives de dégrader et de rendre invisibles les compétences humaines qui les accompagnent, ainsi qu’avec des projets visant à construire l’édifice idéologique de l’économie orthodoxe5. Le mot « artificiel » , quant à lui, porte à peu près le même bagage réactionnaire que son antonyme « naturel ». Dans la mesure où l’on peut dire qu’il existe une telle chose, l’intelligence a toujours été artificielle ; inversement, toute intelligence dite artificielle est en fait probablement aussi naturelle que possible, dans la mesure où elle est utile. Encourageant une approche critique des développements numériques du 21e siècle, le terme « machine d’interprétation » reconnaît implicitement ces réalités politiques et historiques, alors que l’expression intelligence artificielle tend à les dissimuler.

Mécaniser l’interpretation

Le travail capitaliste, comme tout autre type de travail, a toujours impliqué une interprétation. Elle ne peut qu’être entièrement cognitive, symbolique et affective, jusqu’au coup de marteau du travailleur à la chaîne le plus brutalisé ou déqualifié. Les ensembles de capacités particulières connotés par des expressions telles que travail qualifié, travail mental, travail du savoir, analyse symbolique ou travail immatériel ne sont jamais qu’une fine couche de glaçage sur le vaste gâteau multicolore des capacités d’interprétation quotidiennes mises en jeu dans les actions non seulement de chaque travailleur dit non qualifié effectuant le travail le plus manuel, mais aussi de presque chaque être humain âgé de plus de cinq ans6.

Plus encore que n’importe quel glaçage savoureux, c’est ce gâteau plus large, composé de certaines des « capacités humaines les plus profondes et les plus durement acquises » 7, que le capital s’efforce aujourd’hui, en obéissant à ses impératifs contradictoires, d’avoir et de manger. Aujourd’hui, les compétences interprétatives génériques que le capital tente de capturer sont, par exemple, les suivantes : reconnaître de nouvelles occurrences d’anciennes catégories ou d’anciens exemples, traduire, trouver, détecter, rechercher et récupérer des connaissances dans le cadre de processus d’apprentissage, se souvenir, savoir suivre une règle avec souplesse et comprendre quelles questions poser afin de prolonger les conversations, d’assouplir les relations, de clarifier le contexte, de dépasser les malentendus ou de sonder de manière fructueuse diverses inconnues. Mais aussi jouer, taquiner, plaisanter, s’amuser, formuler des métaphores ou des analogies, et ainsi de suite8.

Aucune de ces activités apparemment banales ne constitue en soi un métier ou une profession dans les sens habituels utilisés au cours des 500 dernières années (tisserand, papetier, avocat…). Mais ils constituent une partie nécessaire de chacune d’entre elles. En effet, c’est l’exercice de ces capacités qui, une fois assimilées au capital, constitue sans doute le cœur du travail vivant que Marx opposait au travail mort cristallisé dans les machines et les procédures mécaniques répétitives. Résumées par Ludwig Wittgenstein en une seule phrase gnomique, « savoir comment continuer » 9, elles ont toujours été essentielles pour que les règles, les divisions du travail, les machines et les algorithmes du capital fonctionnent comme il se doit pour accumuler la plus-value.

Depuis la révolution industrielle, il est courant de constater que l’on peut s’attendre à ce qu’un métier après l’autre soit automatisé au fil du temps (scribe, docker), tandis que d’autres sont appelés à voir le jour (nettoyeur d’égouts, ingénieur en logiciel). De même, des emplois peuvent être supprimés par la mécanisation aux États-Unis, par exemple, avant d’être réincarnés en Indonésie ou au Vietnam. Ou encore, des femmes en Europe peuvent quitter la cuisine pour s’occuper de machines coûteuses qui font circuler des conteneurs d’expédition, tandis que des nounous bon marché venues des Philippines s’installent pour aider à élever les enfants10. Comme Marx l’a fait valoir dans le troisième volume du Capital, aussi évident que cela puisse paraître à un capitaliste individuel, le déplacement ou l’affaiblissement d’un groupe de travailleurs par la mécanisation est la « source immédiate d’augmentation du profit » , mais quelque part dans le système, des injections de nouvelle main-d’œuvre vivante, que ce soit sous la forme de métiers anciens ou nouveaux, devront finalement compenser si l’on veut prévenir la baisse du taux de profit11. Ce processus de « réorganisation de la composition organique du capital » 12 — les redistributions et les augmentations de la main-d’œuvre vivante à travers le monde qui permettent à la plus-value d’être drainée des secteurs moins mécanisés vers les secteurs plus mécanisés — est si implacable que l’État a dû se charger d’aider à atténuer les perturbations qui en résultent inévitablement pour le capital lui-même.

La seule nouveauté de cette dynamique au 21e siècle est peut-être le degré de mécanisation non seulement des « professions » individuelles, mais aussi de divers aspects du noyau du travail vivant lui-même — inévitablement associé, là encore, à des poussées de recrutement de la force de travail humaine vivante en de nombreux points du système. Au cours de la dernière décennie en particulier, presque toutes les compétences de la liste ci-dessus ont été, dans une certaine mesure, automatisées avec succès.

Il faut éviter le jargon de l’intelligence artificielle pour lui préférer le terme de machine d ’interprétation.

Cette nouvelle vague d’automatisation a été facilitée par une « tempête parfaite » sans précédent, qui a réuni trois avancées techniques en un puissant ensemble synergique. l’une d’entre elles est un logiciel de « deep learning » [littéralement « apprentissage profond » , ndlt] capable d’apprendre en permanence quels algorithmes ou recettes sont les meilleurs pour prédire ce qu’il veut prédire, à condition qu’on lui fournisse suffisamment de données. Il y a aussi la surveillance publique informatisée des CAPTCHAS (tests de Turing permettant de différencier de manière automatisée un utilisateur humain d’un ordinateur), les quiz en ligne et autres mécanismes de capture du travail pour la construction et l’augmentation continue des énormes bibliothèques ou stocks requis d’octets d’information numérisés à partir des flux non numérisés de la culture humaine — par exemple, des images JPEG étiquetées et codées. On y trouve des dispositifs par lesquels des logiciels de reconnaissance d’images ou Google Translate parasitent le travail linguistique volontaire, presque inconscient, de centaines de millions de propriétaires de smartphones échangeant des potins ou des clichés sur Facebook ou d’autres plateformes. Le troisième ingrédient est l’augmentation considérable de la vitesse et de la capacité de traitement des ordinateurs, qui permet d’utiliser des algorithmes de deep learning pour convertir ces montagnes croissantes de « Big data » en prédictions bon marché, précises et micro-ciblées dans des délais extrêmement courts.

Ce trio d’innovations a contribué à raviver les ambitions d’automatiser non seulement telle ou telle profession particulière, et non seulement telle ou telle compétence d’interprétation spécialisée, mais le travail vivant en tant que tel, à tel point que des prophètes de l’informatique comme Andrew Ng, de Baidu et Stanford, parlent de l’IA comme de « la nouvelle électricité » , tandis que The Economist voit dans les données numérisées « le nouveau pétrole » 13. Les machines d’interprétation sont en train d’être préparées à la fois comme une nouvelle « infrastructure » qui finira par devenir un arrière-plan acquis de l’activité capitaliste accrue dans le monde entier, et comme un secteur économique distinct qui peut être séparé des autres, tout comme un « secteur de l’énergie » a été séparé au 20e siècle.

Les machines d’interprétation sont considérées comme capables de faire des incursions inéluctables dans les emplois de cols blancs, de cols roses, de cols bleus et de sans cols dans tous les domaines14. Aux yeux des techno-visionnaires libertaires, les machines de confiance, par exemple, pourraient réduire considérablement les besoins du capital, non seulement en banquiers et en avocats, mais aussi en tribunaux, en régulateurs, en notaires, en auditeurs, en fonctionnaires, en gestionnaires de portefeuille, en agents immobiliers, en commis d’expédition, en évaluateurs de crédit, en assureurs, en police, et en couches entières de professions comptables et de protection de la nature, ainsi qu’une grande partie de l’État lui-même, réduisant ainsi partout les coûts de transaction15.

Combinés aux moteurs de recherche, ils pourraient éliminer des couches entières d’opérations de back-office infestées par l’homme et rendre économique la monétisation et l’échange à l’échelle mondiale des éléments de propriété les plus minuscules et les plus exotiques, allant du germicide naturel produit par une espèce de grenouille d’Amazonie aux droits détenus de manière informelle sur un demi-hectare d’un bidonville au Kenya ou à la dette individuelle d’un vendeur de rue à Mumbai. Grâce à l’automatisation de la vérification et du règlement, elles pourraient également accélérer le transfert de marchandises dans les corridors commerciaux mondiaux qui traversent de nombreuses frontières. En outre, les machines d’orientation pourraient automatiser le travail des chauffeurs de camion et des livreurs, ainsi que celui d’une variété d’autres travailleurs de la logistique et des transports.

l’intensification de la mécanisation de la reconnaissance, de la recherche, de l’anticipation et de l’orientation ouvre également la voie à une automatisation plus poussée de ce qu’Ursula Huws et d’autres ont appelé le « travail de consommation » 16. Une fois que les compétences constitutives des acheteurs sont décomposées et que le travail divisé est dûment confié à des dispositifs d’interprétation, les consommateurs peuvent être mécanisés en dizaines de millions d’alter ego virtuels17 qui sont vendus aux entreprises. Des machines capables de prévoir simultanément les réactions à des produits spécifiques d’autant d’individus distincts, de manière suffisamment précise et économique, seraient en mesure non seulement de suggérer des articles à un client — comme c’est déjà le cas — mais aussi de les lui expédier avant qu’il ne les ait commandés, sans grand risque qu’ils lui soient retournés avec colère. Cela permettrait de découvrir et d’éliminer un autre obstacle à la circulation à grande vitesse.

L’ancien dans le nouveau

Il est facile d’être ébloui par l’ampleur et la portée de ces efforts visant à mécaniser les formes les plus génériques de travail vivant pour en faire un travail mort cristallisé dans des amalgames de centres de données géants, de logiciels de réseaux neuronaux, de liaisons mondiales par fibre et par satellite, et de smartphones et autres capteurs mondiaux par milliards. Mais alors que le capital se penche sur son tournant « informationnel » , alimenté par l’implication massive de l’État, il est essentiel de préciser qu’il n’abandonne aucune de ses contradictions fondamentales.

Il n’y a rien de nouveau dans la mécanisation de l’interprétation en tant que telle, mais seulement dans l’ampleur, la rapidité et la furtivité de ses avancées.

Tout d’abord, notons au passage qu’il n’y a rien de nouveau dans la mécanisation de l’interprétation en tant que telle, mais seulement dans l’ampleur, la rapidité et la furtivité de ses avancées depuis une dizaine d’années. Depuis des siècles, le capital isole et automatise de-ci de-là les petites compétences d’interprétation inhérentes au travail et aux outils et dispositifs physiques qui lui sont associés, en partie pour réduire sa vulnérabilité face à de petits groupes de travailleurs aux commandes de grandes ou dangereuses machines.

Dès le milieu du 18e siècle, des « régulateurs » mécaniques de machines à vapeur ont été conçus pour « reconnaître » et réguler la vitesse du flux de vapeur comme aucun médiateur humain ne pouvait le faire, contribuant ainsi à inaugurer une ère de la machine en tant que « relais infomécanique entre les flux d’énergie et d’information » 18. La puissance de la vapeur a à son tour permis à d’autres appareils, tels que les machines textiles, de « catégoriser » , « mesurer » et répondre aux variations de leurs propres entrées avec une rapidité surhumaine. Les thermostats (ou ce que l’on appelait au 19e siècle les « régulateurs de chaleur »)19 pouvaient « sentir » avec plus de précision que n’importe quel être humain la température d’un objet, et « communiquer » plus rapidement leurs résultats aux fours ou aux chaudières qui savaient les « lire ». Des compétences d’interprétation similaires ont ensuite été automatisées dans de nombreuses machines différentes, des machines de recensement aux lecteurs de DVD.

Deuxièmement, les machines d’interprétation d’aujourd’hui suivent de près le modèle des anciennes machines industrielles en ce sens qu’elles ne prétendent pas faire exactement ce que font leurs « modèles » humains. À proprement parler, elles ne dupliquent pas les compétences. Au lieu de cela, elles identifient, isolent et activent des fac-similés de fragments particuliers de l’action humaine, les amplifiant et les reproduisant de manière répétitive à grande vitesse afin de produire des résultats uniformes en masse, en utilisant une « énergie » complète organisée par la thermodynamique. Ces machines, cependant, nécessitent une surveillance méticuleuse de la part d’humains employant d’autres compétences — notamment des compétences en matière d’entretien et de nettoyage — afin de produire, de préserver ou de faire circuler la plus-value. Les capacités à effectuer ce nouveau travail tendent également à être dévaluées et dégradées à mesure que l’on cherche à repousser les frontières du renouveau capitaliste.

Par exemple, la machine à filer du 19e siècle n’a jamais été conçue pour faire tout ce qu’une fileuse humaine faisait lorsqu’elle filait : improviser sur certaines routines apprises de l’œil, du doigt, du fil, du bois et du bras ; garder à l’esprit les besoins du marché ou du foyer ; être sociable ; soutenir une famille ou une communauté ; et ainsi de suite. Elle a fait quelque chose de beaucoup plus limité et de rigidement répétitif. Ce qu’elle faisait était aussi physiquement plus dangereux, dans la mesure où elle était mue par des quantités de force dont l’artisan individuel n’aurait pas su quoi faire, et qui nécessitaient une réorganisation complète des paysages pour extraire et transporter l’énergie prête à être utilisée par les machines avant de la transformer, via la fabrication, en déchets inutilisables. Les préposés au filage, à leur tour, ont dû modifier l’utilisation de leurs propres capacités d’interprétation afin de s’adapter aux rythmes simples et accélérés de l’ensemble et de faire fonctionner l’engin surpuissant, en puisant dans des réserves de résilience qui étaient souvent rapidement épuisées.

De même, ce que fait une machine d’interprétation du 21e siècle, telle que Google Translate, donne lieu à la production de phrases, mais ce n’est pas la « même chose » que ce que font les interprètes humains. Au lieu de cela, via Internet, Google Translate se glisse sur des milliards de chaînes de données numérisées représentant des phrases produites par des océans de travail vivant de générations passées et présentes d’humains et de non-humains. Il soumet ensuite ces « Big data » à des opérations informatiques encore plus répétitives que celles de la machine à filer, afin de produire en masse des prédictions bon marché sur les équivalences phrase à phrase qui seraient probablement les plus acceptables pour les traducteurs humains, en particulier ceux qui travaillent dans le commerce international. Et il corrige constamment ses propres procédures sur la base des nouvelles numérisations fournies gratuitement par les utilisateurs d’appareils électroniques du monde entier.

Encore une fois, ces machines d’interprétation ne font pas — et ne sont pas destinées à faire — ce que font, par exemple, les planificateurs humains lorsqu’ils essaient de prévoir l’avenir. d’une part, elles produisent un nombre beaucoup plus important de prédictions. Elles transforment le travail vivant passé en une forme congelée ou « morte » beaucoup plus rapidement, largement et précisément que toute division du travail utilisant des règles manuelles. Leurs prédictions sont aussi généralement meilleures que les prédictions de n’importe quel humain sur son propre comportement. En outre, elles sont capables de surprendre les observateurs par des conclusions qui semblent « non programmées » , comme Charles Babbage et Alan Turing l’avaient déjà démontré en leur temps20. Mais elles n’exercent pas non plus la capacité wittgensteinienne de « continuer » qui est l’un des traits distinctifs du travail vivant, ce qui devient douloureusement évident lorsqu’elles partent en « vrille » en raison d’événements inattendus tels que la pandémie de Covid-1921.

La relation de Google Translate avec l’énergie thermodynamique est également similaire à celle de la machine à filer. Avec ses centres de serveurs géants subventionnés par l’État, ses réseaux de transmission et ses modèles de traitement du langage naturel formés par le Big data, Google Translate a lui aussi besoin de quantités d’électricité dont les interprètes humains ne sauraient que faire, ce qui exige une fois de plus une gestion professionnelle de l’homme et de la nature dans les zones d’extraction de combustibles fossiles22. Globalement, la consommation d’énergie numérique augmente d’environ 9 % par an dans le monde.

Google Translate, donne lieu à la production de phrases, mais ce n’est pas la « même chose » que ce que font les interprètes humains.

En partie à cause de cela, les déchets proliférants des machines d’interprétation, tout comme les déchets de l’industrie du 19e siècle, nécessitent des armées supplémentaires de travailleurs humains et non humains, rémunérés ou non, pour le nettoyage, qui n’étaient tout simplement pas nécessaires pour le travail des fileurs ou des traducteurs humains23. Avec le temps, on peut s’attendre à ce que ces travailleurs s’usent eux aussi, en ce sens que, pour une raison ou une autre, ils ne peuvent plus fournir les services dont le capital a besoin à un coût suffisamment bas24. Comme pour la machine à filer, aucune activité ne reste constante au cours du processus de « mécanisation » ; en effet, le monde entier change.

Ces parallèles doivent être affinés. Le processus capitaliste qui consiste à diviser l’activité humaine et à dynamiser les répétitions stéréotypées des fragments visibles à la fois dans la machine à filer et dans Google Translate n’est pas sorti de nulle part. Pour Charles Babbage, l’inventeur du moteur analytique et l’un des grands-parents de l’intelligence artificielle au 19e siècle, les machines industrielles n’étaient qu’un moyen de poursuivre la mission antérieure de la division du travail. Il s’agissait de décomposer les ensembles intégraux de compétences incarnés par les artisans, en particulier ceux qui possédaient ce que Babbage appelait des compétences « supérieures » ou « mentales » , en composants « plus simples » , plus bêtes, plus quantifiables, plus faciles à surveiller et plus contrôlables.

Les avantages étaient multiples. Des quantités mesurables de tâches achetables pourraient être extraites à partir de la force de travail amorphe à laquelle le capitaliste est confronté. Les patrons pourraient plus facilement éviter de payer pour tout ce qui dépassait la « quantité précise » de « compétence ou de force » qu’ils jugeaient nécessaire pour tout processus de fabrication qu’ils avaient la prérogative d’identifier, de décrire et de subdiviser. Les coûts et le temps perdu de l’apprentissage pourraient être réduits. l’offre de travailleurs en concurrence pour les emplois moins « qualifiés » qui en résultent pourrait être augmentée, ce qui les rendrait moins chers et plus remplaçables et dont on pourrait plus facilement se passer. Les réseaux opaques de relations et de devoirs entre les travailleurs pourraient être transformés, simplifiés et redistribués selon une structure en étoile, avec des « maîtres fabricants » au centre de la discipline.

Dans la mesure du possible, l’« intelligence » et sa propriété pourraient être centralisées de la même manière, comme le taylorisme et le managérialisme ont continué à tenter de le faire au 20e siècle. Chaque fragment des activités divisées pourrait alors prétendument être remplacé par les mouvements de la machine, ce qui modérerait l’augmentation possible de la demande pour l’offre accrue de main-d’œuvre « non qualifiée » et renforcerait la distinction entre les patrons au centre et les travailleurs à la périphérie25. La machine deviendrait, selon les mots de la brillante collègue de Babbage, Ada Lovelace, « l’être qui exécute les conceptions de l’intelligence » 26 possédées par le maître. Cela « reléguerait la lutte des classes dans les ateliers au rang de superstition non scientifique » , comme le dit Caffentzis en paraphrasant Andrew Ure27. La plus-value pourrait être conceptualisée comme provenant de machines qui sont le produit de l’intelligence numérisée du capital combiné à la puissance de la vapeur, plutôt que de l’exercice non compensé de la capacité biologiquement et socialement évoluée des travailleurs à « continuer » d’une manière non mécanique sur la base de quelques exemples seulement.

Marx, le « lecteur londonien le plus pénétrant » de Babbage28, a compris que ce fantasme sur la façon dont la plus-value était produite avait déjà restructuré une grande partie de la réalité victorienne. Marx a reconnu que le passage de la production de combinaisons de métiers à des combinaisons de processus centralisables augmentait le « nombre de travailleurs qui [pouvaient] être exploités simultanément en utilisant le même capital » et réduisait le temps de travail nécessaire à la reproduction de la force de travail, ce qui réduisait à nouveau la masse salariale, sapait le pouvoir de négociation et l’indépendance des travailleurs et libérait le capital pour d’autres utilisations.

Mais il a également pris soin de souligner que la nouvelle structure mécanisée en étoile n’était pas statique, mais dynamique, et qu’elle était irrémédiablement traversée par la contradiction. Le « surplus de population » de main-d’œuvre vivante généré par les machines n’a pas simplement augmenté de façon linéaire et illimitée en proportion de la propagation des machines. La machinerie elle-même était dynamique. La « transformation mécanisée des maîtres de guilde et de leurs compagnons en capitalistes et en travailleurs salariés » , ajoute Marx, ne doit pas être confondue avec un « déplacement universel et à long terme des travailleurs salariés eux-mêmes par l’application du capital et de la connaissance scientifique » 29. l’augmentation du nombre de machines et la tendance connexe à la baisse du taux de profit par intermittence poussent le capital à exiger à nouveau des masses de main-d’œuvre vivante (y compris la main-d’œuvre reproductive) dans l’une ou l’autre zone du système, par le biais de la transformation de la valeur en prix30, quelle que soit la manière dont le capital interprète la « compétence » et l’« intelligence » de la main-d’œuvre.

La consommation d ’énergie numérique augmente d ’environ 9 % par an dans le monde.

C’est ici que le rôle non accidentel de la thermodynamique dans les projets capitalistes du 19e et du 21e siècle doit être à nouveau souligné. Comme Marx l’a noté, c’est la croissance de la division du travail qui a engendré une « force motrice plus puissante que celle de l’homme » , et non l’inverse. Cette nouvelle « énergie » , organisée par la thermodynamique et pratiquement synonyme de réorganisation systématique et productive des paysages autour d’une logique de dégradation31, était essentielle pour permettre au capital de soumettre les compétences d’un nombre encore plus grand de travailleurs dépossédés de leurs terres, dont la force de travail pouvait désormais être facilement achetée par les propriétaires, à un désassemblage, une réorganisation et un contrôle centralisés, facilitant ainsi le « travail combiné » (ou ce que Marx appelait de manière quelque peu confuse la « coopération simple ») dans des usines toujours plus peuplées32.

De même qu’une visualisation complète de la machine à filer devrait prendre en compte non seulement les enfants qui se faufilent entre les bobines à rotation rapide et les esclaves des plantations de coton qui soulèvent des houes, mais aussi les mineurs de charbon accroupis dans d’innombrables chambres souterraines étouffantes, de même une visualisation complète de la machine d’interprétation d’aujourd’hui devrait englober non seulement le personnel des centres de données qui remplace les unités de traitement tensoriel et les mineurs de la RDC qui subissent des mauvais traitements, mais aussi les interruptions du débit des principaux fleuves du monde entier33.

Une confirmation de la nature durable de ces caractéristiques de la mécanisation capitaliste est que les guillemets autour de ces verbes intentionnels qui ont été utilisés ci-dessus pour décrire les thermostats du 19e siècle ou les régulateurs des moteurs à vapeur (« reconnaître » , « traduire » , « mesurer » , « savoir ») doivent évidemment être maintenus fermement en place lorsqu’il s’agit de décrire ce que font les machines d’interprétation du 21e siècle. Il est peut-être vrai que les premiers critiques de l’IA se sont largement trompés lorsqu’ils ont suggéré qu’un ordinateur ne pourrait jamais battre un champion du monde d’échecs ou fournir une traduction magnifiquement équilibrée d’une page de prose proustienne34.

Il est également vrai, à l’inverse, que les intuitions des visionnaires de l’IA se sont révélées tout à fait justes lorsqu’ils ont vu l’avenir des dispositifs d’interprétation non pas dans les tentatives d’encodage de l’expérience des experts dans les machines35, ni dans le fait de faire fonctionner les machines comme l’esprit humain, mais plutôt dans le fait de laisser les réseaux neuronaux artificiels « faire à leur manière » 36 par le biais du traitement incessant et à forte intensité énergétique de masses gigantesques de données produites en permanence par des processus à forte intensité de main-d’œuvre menés dans le monde entier. Mais ni les échecs accidentels de la conception ni les triomphes ne changent la réalité : la perspective de « remplacer » le travail humain vivant dans le processus d’accumulation du capital — et donc de supprimer la contradiction que Marx a identifiée entre le travail vivant et le travail mort — reste si éloignée qu’elle est presque sans intérêt pour les stratégies prévisibles de résistance anticapitaliste.

Le travail d’interprétation aujourd’hui

Le résultat est que la prétendue intelligence artificielle n’est pas plus près de rendre le travail vivant obsolète que les machines industrielles du 19e siècle. Ce n’était pas non plus le but des mouvements de mécanisation, aussi fort que les idéologues capitalistes puissent parfois affirmer le contraire. Le capital n’a pas vraiment besoin, et ne pourrait probablement pas se permettre, d’avoir des ouvriers machiniques qui remplissent les fonctions d’interprètes polyvalents et bien formés37. Il peut déjà obtenir beaucoup de la variété humaine à des prix avantageux.

Plus le capital enrôle de machines, plus il a besoin de travailleurs qui ne sont pas des machines.

Ainsi, l’informaticien Hamid R. Ekbia et l’anthropologue Bonnie Nardi rassemblent des preuves montrant que les récents progrès de l’intelligence artificielle, au lieu de représenter une étape progressive vers l’automatisation totale, illustrent une stratégie plus complexe d’hétéromation, ou « d’extraction de la valeur économique d’une main-d’œuvre gratuite ou à faible coût dans des réseaux médiatisés par ordinateur » si dispersés et anonymes que les travailleurs peuvent être « traités comme des non-personnes » — une astuce de plus conçue par le capital pour faire face à la tendance à la baisse du taux de profit38. « l’automatisation par rapport au travail humain est une fausse dichotomie » , affirment Mary L. Gray et Siddharth Suri, de Microsoft, dans une étude comparative sur la façon dont les nouveaux appareils prétendument « intelligents » de la Silicon Valley nécessitent le « travail fantôme » incessant de millions d’assistants humains qui restent bien plus astucieux à bien des égards39. Même Geoffrey Hinton, l’informaticien vénéré connu comme le « parrain du deep learning » , qui s’accroche obstinément à l’idée que le machine learning (apprentissage automatique) « non supervisé » sans apport de travail humain vivant sera un jour possible40, ne croit plus que l’on puisse atteindre une « véritable » IA en continuant à développer les techniques de simulation actuelles, gourmandes en énergie et en données41.

En quoi, exactement, les machines d’interprétation du 21e siècle, comme les machines industrielles du 19e siècle, ne servent-elles qu’à redistribuer, transformer et étendre l’exploitation du travail vivant au lieu de l’éliminer progressivement ? Le travail interprétatif vivant reste fondamental pour les actions productives de minute en minute et de semaine en semaine des machines spécifiques elles-mêmes. Les machines à filer du 19e siècle exigeaient « une finesse à la fois mentale et physique » de la part des enfants travailleurs qui « passaient adroitement d’une machine vibrante à la suivante » pour passer leurs mains entre les bobines en mouvement afin de dégager les débris42.

Pour pouvoir réorganiser, démanteler et mécaniser avec succès les compétences professionnelles par le biais de la division du travail et des moteurs thermiques à combustible fossile, le capital a toujours eu besoin, en même temps, d’exploiter de plus en plus ce travail interprétatif non mécanisé. Même au niveau de leurs mouvements les plus infimes, les machines industrielles seraient tout simplement tombées en panne ou n’auraient plus servi à rien au capital, si elles n’avaient pas été constamment alimentées par d’importantes injections locales et lointaines de main-d’œuvre vivante fraîche pour les faire fonctionner. Plus le capital enrôle de machines, plus il a besoin de travailleurs qui ne sont pas des machines. Plus il y avait de main d’œuvre morte, plus il fallait de main d’œuvre vivante.

De même, les systèmes d’intelligence artificielle du 21e siècle qui rendent possibles les applications téléphoniques de Facebook ou d’Uber dépendent d’une « réserve de main-d’œuvre permanente » qui fournit des données humaines pour censurer les textes, mettre à jour les bases de données d’images, revérifier les photos d’identité43 etc. La machine de reconnaissance faciale Clearview ne pourrait pas fonctionner sans le travail non reconnu et non rémunéré des humains qui catégorisent des milliards d’images sur Internet en échange de reconnaissance sur les réseaux44. Les algorithmes de Facebook pour la fabrication de prédictions vendables conçues pour réduire le temps de circulation en augmentant les taux de clics pour la publicité ciblée — peu importe le nombre de dizaines de milliers de serveurs empilés dans des centres de données réfrigérés géants qui sont enrôlés pour les exécuter — s’arrêteraient entre-temps sans les milliards d’heures de travail d’interprétation humaine effectuées par ses utilisateurs chaque jour lorsqu’ils aiment, commentent, font défiler les mises à jour de statut ou simplement trouvent leur chemin d’un quartier à l’autre45.

Alors que Facebook emploie actuellement environ 48 000 travailleurs qui ont signé des contrats de travail conventionnels en échange d’un salaire, il peut également exploiter le travail de plus de 2,6 milliards d’utilisateurs qui ont accepté des conditions de service selon lesquelles leur travail routinier et vivant de traitement des données est échangé contre des services d’interaction avec la plateforme. Il n’est donc pas surprenant que le rapport entre la capitalisation boursière et la main-d’œuvre de Facebook soit de 20,5 millions de dollars par employé rémunéré, contre 231 000 dollars pour General Motors46. Quel que soit le siècle, les compétences d’interprétation continuent de constituer le noyau commun du travail vivant sous le capitalisme.

La principale différence entre les deux siècles à cet égard est que, grâce à ces algorithmes de « deep learning » , à ces processeurs rapides et à ces technologies de surveillance avancées, combinés à une énergie thermodynamique bon marché, le capital peut désormais collecter directement, et quotidiennement, un nombre colossal de minuscules moments d’exercice des compétences d’interprétation intégrées que la population humaine mondiale a acquises lorsqu’elle était bébé ou jeune enfant, et, en les transformant en Big data, les ajouter aux « éléments de profit » dont Marx parlait dans le premier volume du Capital il y a plus de 150 ans. De la même manière que les machines industrielles à énergie thermodynamique ont contribué à répandre la relation de travail salarié dans le monde entier à partir du 19e siècle47, les machines d’interprétation du 21e siècle permettent et nécessitent le recrutement non seulement d’un plus grand nombre de travailleurs salariés, mais aussi des zones plus profondes du travail humain non rémunéré. Aussi clairement qu’au 19e siècle, la « conservation, donc aussi la reproduction de la valeur des produits du travail passé, est en fait seulement le résultat de leur contact avec le travail vivant » 48.

Un type de travail humain vivant, souvent négligé, qui soutient la vague de mécanisation de l’interprétation au 21e siècle, est celui qui consiste à rendre ce travail invisible. Ce travail d’ « invisibilisation » ne se limite pas aux tâches que les idéologues informatiques continuent d’accomplir en dénigrant les compétences des femmes, des peuples colonisés, de la classe ouvrière ou des humains ordinaires en général. Ce qui pose un défi particulier aux mouvements ouvriers, c’est que ce travail d’invisibilisation est également effectué par les humains, car, minute après minute, ils attribuent volontairement leur capacité à effectuer un travail vivant aux machines49. Déjà au 19e siècle, Marx avait noté que le capital industriel exigeait que les travailleurs soient placés dans une situation dans laquelle ils finissaient par créditer les machines industrielles des « facultés intellectuelles » des travailleurs eux-mêmes.

Ce modèle d’entreprise est aujourd’hui considérablement renforcé par la propagation de machines d’interprétation avancées. En 2017, des utilisateurs des indications automatisées de Google à travers des villes au tracé irrégulier ont fait de même lorsque les machines ont été confrontées à des croisements où les rues bifurquent légèrement avant de continuer sur des lignes légèrement différentes. Google avait tendance à dire aux utilisateurs de « tourner » dans la rue transversale et de continuer sur quelques mètres, puis de « tourner » pour rejoindre la rue qu’ils n’avaient en fait jamais quittée. Les utilisateurs ont dû fournir un travail d’interprétation impromptu, mais non reconnu pour « corriger » ce qui était alors la difficulté de la machine à simuler la compréhension de concepts ouverts tels que tourner et aller tout droit à l’intersection. (Tout « bug » de ce type peut en principe être éliminé en appliquant plus de données, plus d’algorithmes et plus d’énergie, bien sûr, mais de nouveaux bugs apparaîtront inévitablement pour les remplacer).

De même, les discours sur les voitures « sans conducteur » ne tiennent généralement pas compte du fait que leur développement a été fortement tributaire de la « reconstruction de Mountain View, en Californie, afin d’en faire un lieu sûr pour la navigation de ces véhicules » , pour reprendre les termes d’un expert en intelligence artificielle50. Dans de tels exemples, seule l’informatique est visible car, pour reprendre les termes de Marx, « l’humain s’efface ».

Les machines d ’interprétation du 21e siècle nécessitent aussi le recrutement des zones plus profondes du travail humain non rémunéré.

Comme le fait remarquer Collins, les interfaces des ordinateurs et des téléphones portables ne sont pas là pour se débarrasser de ce type de travail vivant. Ils sont là pour le cacher, en trouvant des moyens mécaniques pour exploiter uniquement les capacités d’interprétation les plus quotidiennes et irréfléchies que presque tout le monde possède. En aidant les utilisateurs à ne pas se rendre compte de l’augmentation du travail vivant non rémunéré qu’ils mettent dans leurs relations avec les machines d’interprétation, des interfaces bien conçues telles que Windows, les souris d’ordinateur, les navigateurs Internet et le texte prédictif poursuivent la mission capitaliste de garder le travail vivant non rémunéré hors de vue, tout en entretenant le fétichisme de la machine autonome et l’idéologie de l’« automatisation totale » qui prétend que les machines sont sur le point de « remplacer » les humains dans l’accumulation du capital. À l’instar de l’usine du 19e siècle, les interfaces d’intelligence artificielle constituent un mécanisme destiné à maintenir les travailleurs « dans l’ignorance des ressorts secrets qui [régissent] la machine et à réprimer les pouvoirs généraux de leur esprit » , de sorte que « les fruits de leur propre travail [leur] sont retirés par cent artifices » 51.

Pourtant, les travailleurs humains, comme l’écrit George Caffentzis, « peuvent toujours tuer le capital dans sa forme la plus incarnée et la plus vulnérable : la machine » 52. Ayant besoin, cherchant et créant souvent des forces qu’il ne peut pas tout à fait contrôler et des biens communs qu’il enferme à ses risques et périls, le capital ne peut jamais garder les outils de ses méfaits répétés entièrement hors de portée de ses résistants. Cela fait autant partie de la politique des nouvelles machines d’interprétation que de la politique des anciennes machines industrielles. Si les risques de dépréciation rapide ne sont pas reconnus, les investissements des entreprises informatiques dans le capital constant des centres de serveurs par exemple, du stockage des données volumineuses, des lignes de fibres optiques, des unités de traitement des capteurs et des architectures de deep learning peuvent devenir la « source d’une énorme désaccumulation ».

Quelles sont les contradictions spécifiques qui affligent la mécanisation de l’interprétation et comment une perspective historique pourrait-elle aider les mouvements populaires à les gérer de l’intérieur ? l’une d’entre elles découle du fait que les nouvelles machines d’interprétation du capital renforcent inévitablement ses assauts de longue date sur les conditions de vie de la majorité mondiale : leurs sols, leur eau, leurs relations avec les plantes et les animaux, leurs capacités à échapper à la surveillance et à la répression de l’État et à régénérer les biens communs. La symbiose toxique entre la mécanisation de l’interprétation et le développement non durable de l’énergie et des minéraux, par exemple, se heurte à des révoltes croissantes dans les « zones sacrifiées » d’extraction et de développement des infrastructures, dont les habitants ne sont peut-être pas particulièrement préoccupés par l’exploitation spécifique des « travailleurs fantômes » qui s’occupent des machines d’interprétation.

De même, on peut s’attendre à ce que les frontières de la main-d’œuvre « iSlave » nécessaire au fonctionnement de zones rentables d’assemblage de matériel informatique reculent encore, précipitant ainsi d’autres crises. Il y a ensuite les revendications réprimées qui éclatent occasionnellement comme l’envers des efforts du capital pour invisibiliser de nouvelles étendues de travail vivant, ainsi que les réactions déjà visibles contre la surveillance de plus en plus mécanisée qui fait partie des plans des entreprises, de l’armée et de la bureaucratie — tous évoluant de concert avec les efforts obligatoires de déplacement du capital.

Les nouvelles machines d ’interprétation du capital renforcent les assauts de longue date sur les conditions de vie de la majorité mondiale.

Certaines contradictions peuvent être plus obscures, par exemple celle entre le besoin permanent du capital d’avoir des compétences wittgensteiniennes vivantes pour pouvoir « continuer » et l’attaque simultanée de ces compétences par la mécanisation de l’interprétation. Comme Shoshana Zuboff l’a documenté, le capital de surveillance se trouve dans une course constante pour améliorer ce qu’elle appelle judicieusement ses « produits de prédiction » — pour reprendre ses termes, pour que « la prédiction se rapproche de plus en plus de l’observation » 53. Cela implique d’élargir et de diversifier les architectures numériques à travers lesquelles le surplus de l’exercice mondial des capacités wittgensteiniennes est extrait, en visant inconsciemment l’« idéal » contradictoire de l’ingénierie de ce public de travail lui-même au point de devenir si machinal que le surplus se tarit. Quelles contradictions vont mordre à l’hameçon, et quand, comment et où, cela reste dans une certaine mesure à déterminer.

En outre, certaines caractéristiques intrinsèques de contre-résistance sont presque intégrées dans la mécanisation de l’interprétation : la quasi-instantanéité d’une grande partie du travail d’interprétation récolté par les grandes entreprises informatiques, qui « vient naturellement » à presque tous les adultes humains ; l’invisibilité du travail qui en résulte, presque « intégrée » , et la facilité avec laquelle les travailleurs eux-mêmes l’attribuent aux machines ; ainsi que l’extrême dispersion mondiale de la main-d’œuvre s’occupant des machines d’interprétation. Cependant, toute évaluation sérieuse de l’avenir de la résistance devra probablement tenir compte de la manière dont les machines d’interprétation d’aujourd’hui s’inscrivent dans l’histoire plus longue du capital.

L’auteur tient à remercier Hendro Sangkoyo, Soumitra Ghosh, Leo Panitch et Greg Albo pour leurs commentaires. Publié à l’origine dans Socialist Register 2021 : Beyond Digital Capitalism. New Ways of Living, Vol. 57, eds. Leo Panitch et Greg Albo, octobre 2020. Publié ici sous forme abrégée et éditée.

Footnotes

  1. Pour des avancées positives récentes, voir, par exemple, George Caffentzis, In Letters of Blood and Fire : Work, Machines and the Crisis of Capitalism, Oakland : PM Press, 2013 ; Andreas Malm, Fossil Capital : The Rise of Steam Power and the Roots of Global Warming, Londres : Verso, 2016 ; Matthew Huber, « Energizing Historical Materialism : Fossil Fuels, Space and the Capitalist Mode of Production » , Geoforum, 40 (1), 2009, pp. 105-15 ; Cara New Daggett, The Birth of Energy : Fossil Fuels, Thermodynamics and the Politics of Work, Durham : Duke University Press, 2019 ; et Alf Hornborg, The Power of the Machine : Global Inequalities of Economy, Technology and Environment, Lanham, MD : AltaMira, 2001.
  2. Carlo Vercellone, « The Hypothesis of Cognitive Capitalism » , document présenté lors de la conférence annuelle du matérialisme historique, Birkbeck College et SOAS, Londres, 4-5 novembre 2005, p. 10, emphase ajoutée.
  3. Aaron Benanav, « Automation and the Future of Work — 2 » , New Left Review 120 (novembre/décembre), 2019, pp. 117-46, 117 ; « Automation and the Future of Work — 1 » , New Left Review 119 (septembre/octobre), 2019, pp. 5-38, 6. Pour certaines similitudes entre ce « discours sur l’automatisation et les fantasmes capitalistes récurrents et contradictoires des machines à mouvement perpétuel et des « économies circulaires » , voir Larry Lohmann, « Blockchain Machines, Earth Beings and the Labour of Trust » , Sturminster Newton : The Corner House, 2019, disponible à l’adresse : www.thecornerhouse.org.uk.
  4. Cette stratégie a une longue histoire, allant de l’utilisation du terme « machine logique » par C. S. Peirce au 19e siècle à l’insistance de l’informaticien Mihai Nadin sur la machine sémiotique au 21e siècle. Voir Peirce, « Logical Machines » , American Journal of Psychology, 1 (1), 1887, pp. 165-70 ; Nadin, « Semiotic Machine » , The Public Journal of Semiotics, 1 (1), 2007, pp. 57-75 et Winfried Nöth, « Semiotic Machines » , Cybernetics and Human Knowing, 9 (1), 2002, pp. 5-21.
  5. Simon Schaffer, « Babbage ’s Intelligence » , Critical Inquiry, 21 (1), 1994, pp. 203-227 ; Schaffer, « Babbage ’s Dancer and the Impresarios of Mechanism » dans Cultural Babbage : Technology, Time and Invention, Londres : Faber, 1996, pp. 53-80.
  6. Matteo Pasquinelli rappelle une partie de l’histoire plus longue des discussions de gauche autour de ce point dans « On the Origins of Marx ’s General Intellect » , Radical Philosophy, 2.06, hiver 2019, pp. 43-56. Voir également son « Italian Operaismo and the Information Machine » , Theory, Culture and Society, 32 (3), 2015, pp. 49-68.
  7. Hamid R. Ekbia et Bonnie Nardi, Heteromation, and other Stories of Computers and Capitalism, Cambridge, MA : MIT Press, 2017, p. 140.
  8. Johan Huizinga, Homo Ludens : A Study of the Play Element in Culture, Londres : Routledge, 1949.
  9. Ludwig Wittgenstein, Philosophical Investigations, traduit par Elizabeth Anscombe, Oxford : Blackwell, 1953.
  10. Arlie Hochschild, « Love and Gold » , dans L. Ricciutelli, rédac. chef, Women, Power and Justice : A Global Perspective, Londres : Zed Books, 2005.
  11. Karl Marx, Capital, vol. 3, traduit par D. Fernbach, Londres : Penguin Classics, 1991, pp. 270, 299.
  12. Caffentzis, In Letters of Blood and Fire, p. 45.
  13. Shana Lynch, « Andrew Ng : Why AI Is the New Electricity » , Insights by Stanford Business, 11 mars 2017, disponible à l’adresse suivante : www.gsb.stanford.edu ; Kiran Bhageshpur, « Data is the New Oil — and that ’s a Good Thing » , Forbes Technology Council, 15 novembre 2019, disponible à l’adresse suivante : www.forbes.com.
  14. Voir, par exemple, les études réalisées par l’Oxford Martin School Programme on the Future of Work, www.oxfordmartin.ox.ac.uk/future-of-work.
  15. Lohmann, « Blockchain Machines ».
  16. Batya Weinbaum et Amy Bridges, « The Other Side of the Paycheck : Monopoly Capital and the Structure of Consumption » , Monthly Review, 28 (3), 1976 ; Ursula Huws, « The Underpinnings of Class in the Digital Age » , dans Leo Panitch, Greg Albo et Vivek Chibber, rédac. chef, Socialist Register 2014 : Registering Class, Londres : Merlin Press, 2013, pp. 80-107.
  17. Don Tapscott, « Understand Blockchain in under 7 Minutes Lloyds Bank », YouTube, 22 mars 2018.
  18. Pasquinelli, « Italian Operaismo » , p. 63, citant un ouvrage de Gilbert Simondon publié à titre posthume.
  19. Andrew Ure, « On the Thermostat or Heat Governor », Philosophical Transactions of the Royal Society of London, 1831.
  20. Simon Schaffer, « Babbage ’s Dancer ». Dès les années 1830, Babbage remportait des triomphes en matière de relations publiques en faisant la démonstration d’une machine qui semblait capable, comme dans l’un des jeux imaginaires de Wittgenstein, de « continuer » de manière inattendue. Turing a également souligné ce phénomène dans ses polémiques des années 1940 et du début des années 1950.
  21. Will Douglas Heaven, « Our Weird Behavior during the Pandemic is Messing with AI Models » , MIT Technology Review, 11 mai 2020, disponible à l’adresse : www.technologyreview.com.
  22. Par exemple, les émissions de CO2 résultant uniquement de la formation (et non de l’utilisation) d’un seul modèle de traitement du langage naturel par deep learning peuvent atteindre 284 tonnes, soit cinq fois celles d’une voiture conduite pendant toute une vie (Emma Strubell, Ananya Ganesh et Andrew McCallum, « Energy and Policy Considerations for Deep Learning in NLP » , 57e réunion annuelle de l’Association for Computational Linguistics, Florence, Italie, juillet 2019, disponible à l’adresse : arxiv.org/abs 1906,022 43). Comme pour la production industrielle de masse, la traduction automatique est plus efficace que la traduction humaine pour les gros volumes. On a estimé qu’il faudrait 100 mégawatts-heure à des humains correctement formés pour traduire 500 millions de phrases allemandes en anglais (un demi-million de personnes travaillant à plein temps pendant près de trois semaines). En revanche, il n’a fallu à un système de traduction automatique neuronal typique, formé à l’aide de données produites par le projet européen Paracrawl (paracrawl.eu), que sept mégawatt-heure sur trois jours pour y parvenir (William Waites, « Efficiency, Energy Use and Sustainability in Machine Translation » , The Language Data Network, 20 décembre 2019, blog.taus.net/efficiency-energy-use-and-sustainability-in-machine-translation). En revanche, si le seul objectif était d’effectuer un petit projet, comme dans le cas de la production classique de marchandises, il serait inutile de mettre en place un mécanisme aussi énergivore, à condition de disposer de traducteurs humains.
  23. Nathan Ensmenger, « The Environmental History of Computing » , Technology and Culture, 59 (4), 2018, pp. S7-S33. Sans parler du gaspillage des êtres humains et de leurs talents décrit par Marx dans les pages du Capital et maintenant par Jack Linchuan Qiu dans Goodbye iSlave : A Manifesto for Digital Abolition, Urbana : University of Illinois Press, 2016 et David N. Pellow et Lisa Sun-Hee Park dans The Silicon Valley of Dreams : Environmental Injustice, Immigrant Workers and the High-Tech Global Economy, New York : New York University Press, 2002.
  24. Jason W. Moore, Capitalism in the Web of Life : Ecology and the Accumulation of Capital, Londres : Verso, 2015.
  25. Charles Babbage, On the Economy of Machinery and Manufacture, Londres : Charles Knight, 1832.
  26. Cité dans Simon Schaffer, « OK Computer » , dans M. Hagner, rédac. chef, Ecce Cortex : Beitraege zur Geschichte des modernen Gehirns Göttingen : Wallstein Verlag, 1999, pp. 254-85.
  27. Caffentzis, In Letters of Blood and Fire, p. 153.
  28. Schaffer, « Babbage ’s Intelligence » , p. 205.
  29. Ibid.
  30. Karl Marx, Capital, vol. 3, traduit par D. Fernbach, Londres : Penguin Classics, 1991, p. 270 et suivantes.
  31. Larry Lohmann, « Bioenergy, Thermodynamics and Inequalities » , dans M. Backhouse et F. Rodriguez, rédac. chef, Bioeconomy and Global Inequalities : Knowledge, Land, Labor, Biomass, Energy, and Politics, Palgrave Macmillan, à paraître, www.thecornerhouse.org.uk ; Larry Lohmann et Nicholas Hildyard, Energy, Work and Finance, Sturminster Newton : The Corner House, 2014, disponible à l’adresse : www.thecornerhouse.org.uk.
  32. Bruno Tinel, « Why and How Do Capitalists Divide Labour ? From Marglin and back again through Babbage and Marx » , Review of Political Economy, 25 (2), 2013, pp. 254-72. La nouvelle énergie thermodynamique, bien sûr, a également été utilisée pour accélérer l’expansion de la frontière extractive qui a rendu possible l’augmentation de la sujétion des travailleurs. Voir Moore, Capitalism in the Web of Life.
  33. Michelle Caruso-Cabrera et Ritika Shah, « Why One Small Washington Town Has Seen so Many Bitcoin Miners Move in » , CNBC, 11 janvier 2018 ; Mark Sounokonoko, « China ’s Bitcoin Super Mines about to Power up for « Skyrocketing » Cryptocurrency » , Finance Nine, 1er juillet 2019, disponible à l’adresse : finance.nine.com.au.
  34. Hubert L. Dreyfus, What Computers Can’t Do, New York : Harper and Row, 1972 ; John Haugeland, Artificial Intelligence : The Very Idea, Cambridge, MA : MIT Press, 1985, pp. 173-6.
  35. Jane Mayer, « The Reclusive Hedge-Fund Tycoon Behind the Trump Presidency : How Robert Mercer Exploited America ’s Populist Insurgency » , The New Yorker, 17 mars 2017 ; David Silver, Thomas Hubert, Julian Schrittwieser et al, « A General Reinforcement Learning Algorithm that Masters Chess, Shogi and Go through Self-Play » , Science, 362 (6419), 2018, pp. 1140-4.
  36. David Runciman, « AI » , London Review of Books, 40 (2), 25 janvier 2018.
  37. Peirce, « Logical Machines » ; Ted Chiang, The Lifecycle of Software Objects, Burton, MI : Subterranean Press, 2010 ; Ekbia et Nardi, Heteromation, p. 145.
  38. Ekbia et Nardi, Heteromation.
  39. Mary L. Gray et Siddharth Suri, Ghost Work : How to Stop Silicon Valley from Building a New Global Underclass, New York : Houghton Mifflin Harcourt, 2019.
  40. Ibid. Voir également Anja Bechmann et Geoffrey C. Bowker, « Unsupervised by Any Other Name : Hidden Layers of Knowledge Production in Artificial Intelligence on Social Media » , Big Data and Society, janvier-juin 2019 : 1-11.
  41. Axios, « Artificial Intelligence Pioneer Says We Need to Start Over » , Communications of the Association for Computing Machinery, 18 septembre 2018. La rétropropagation, un ingrédient clé dans les efforts actuels pour mécaniser l’interprétation, « ne rend tout simplement pas compte de la façon dont le cerveau fonctionne » , écrit l’informaticien Sridhar Mahadevan, l’un des disciples de Hinton. Voir « Why is Geoffrey Hinton Suspicious of Backpropagation and Wants AI to Start Over ? » , Quora, 21 septembre 2017, disponible à l’adresse suivante : www.quora.com.
  42. Gray et Suri, Ghost Work, p. 43.
  43. Ibid, pp. xxiii, 170.
  44. « Clearview AI » , Wikipedia ; Clearview, « Computer Vision for a Safer World » , s.d., clearview.ai ; Kashmir Hill, « The Secretive Company That Might End Privacy as We Know It » , New York Times, 18 janvier 2020.
  45. l’importance des machines capables d’exploiter en masse cette forme de travail apparemment banale est illustrée par la conclusion des chercheurs du moteur de recherche Bing de Microsoft, selon laquelle « une amélioration de 0,1 % de la précision de notre production [de prédictions] permettrait de réaliser des centaines de millions de dollars de gains supplémentaires » en diffusant les publicités ciblées les plus efficaces aux utilisateurs (cité dans Zuboff, The Age of Surveillance Capitalism, p. 85). En 2015, 90 % des propriétaires de smartphones américains utilisaient des applications nécessitant des flux de données de localisation (p. 221).
  46. Scott Galloway, The Four : The Hidden DNA of Amazon, Apple, Facebook and Google, New York : Penguin, 2017, p. 6.
  47. Huber, « Energizing Historical Materialism » , p. 110.
  48. Marx, Capital, vol. 3, p. 524.
  49. Collins et Kusch, The Shape of Actions ; Hamid R. Ekbia, « Heteronomous Humans and Autonomous Agents : Toward Artificial Relational Intelligence » , dans J. Fodor et I. Ruda, rédac. chef, Beyond Artificial Intelligence : The Disappearing Human-Machine Divide. Topics in Intelligent Engineering and Infomatics, vol. 9, Heidelberg : Springer, pp. 63-78.
  50. Nathan Ensmenger, présentation pour le Leverhulme Centre for the Future of Intelligence, « The Future of Artificial Intelligence : Views from History » , table ronde à l’université de Cambridge, 29 novembre 2018, disponible à l’adresse suivante : www.youtube.com.
  51. William Thompson, An Inquiry Into the Principles of the Distribution of Wealth Most Conducive to Humane Happiness Applied to the Newly Proposed System of Voluntary Equality of Wealth, Londres : Longman, 1824, cité dans Pasquinelli, « On the Origins » , p. 50.
  52. Caffentzis, In Letters of Blood and Fire, p. 46.
  53. Zuboff, Surveillance Capitalism.