La route vers l’utopie de l’IA pavée de splendeurs (vides)


Par Simplicius Le Penseur – Le 16 octobre 2024 – Source Dark Futura

Le mois dernier, Sam Altman a écrit un billet de blog fantaisiste qui a suscité des discussions au sein de l’industrie technologique. Il l’a intitulé « L’ère de l’intelligence ».

La thèse principale de ce billet narcotiquement optimiste est la suivante :

Dans les prochaines décennies, nous serons capables de faire des choses qui auraient semblé magiques à nos grands-parents.

C’est presque tout ce qu’il faut savoir pour comprendre l’essentiel des croyances fondamentales d’Altman et de sa cohorte, ou même de leur ethos, qui les poussent à une accélération quasi obsessionnelle vers la singularité de l’IA – ou ce qu’ils conçoivent comme telle.

Cela a toutes les caractéristiques d’un utopisme aveugle. Les exemples de réalisations à venir qu’il donne semblent être myopes et se limiter à des effets de premier ordre, sans jamais prendre en compte les conséquences de deuxième ou troisième ordre, comme cela devrait être le cas en toute responsabilité. Passons en revue quelques-unes d’entre elles avant de passer à un examen plus large de notre avenir potentiel sous la direction de cette classe actuelle de leaders d’opinion dans le domaine de la technologie.

Cela ne se fera pas d’un coup, mais nous pourrons bientôt travailler avec une IA qui nous aidera à accomplir bien plus de choses que nous n’aurions jamais pu le faire sans elle ; à terme, nous pourrons tous disposer d’une équipe d’IA personnelle, composée d’experts virtuels dans différents domaines, qui travailleront ensemble pour créer presque tout ce que nous pourrons imaginer. Nos enfants auront des tuteurs virtuels qui pourront leur fournir un enseignement personnalisé dans n’importe quelle matière, dans n’importe quelle langue et à n’importe quel rythme.

Il s’appuie sur l’idée que l’IA nous facilitera la vie et le travail. Mais cette seule idée pose de nombreux problèmes.

Tout d’abord, pourquoi nos emplois seraient-ils valorisés et nos niveaux de salaire maintenus une fois que les employeurs se rendront compte que la majeure partie, voire une partie importante, du travail est effectuée ou améliorée d’une manière ou d’une autre par cet « assistant » ? Cela ressemble à une recette pour plus de violations des droits du travail et une autre « ère » de croissance salariale minimale ou nulle.

Deuxièmement, il affirme que les « tuteurs » de l’IA formeront vos enfants. À quoi les tuteurs de l’IA les formeraient-ils exactement ? Dans un avenir dominé par l’IA, les emplois pourraient être quasiment inexistants, à l’exception des quelques ingénieurs choisis pour gérer les algorithmes de l’IA. Ainsi, si l’IA peut vous « former », cette formation pourrait bien n’avoir aucune valeur. Il y a ici une nette déconnexion entre la cause et l’effet économiques. La promesse est essentiellement que l’IA « augmentera » nos emplois et nos activités – ceux-là mêmes que l’IA est censée rendre obsolètes et éliminer.

Grâce à ces nouvelles capacités, nous pourrons bénéficier d’une prospérité partagée à un degré qui semble inimaginable aujourd’hui; à l’avenir, la vie de chacun pourra être meilleure que celle de n’importe qui aujourd’hui. La prospérité à elle seule ne rend pas nécessairement les gens heureux – il y a beaucoup de riches malheureux – mais elle améliorerait de manière significative la vie des gens dans le monde entier.

Et voilà qu’il repart dans un élan d’euphorie. L’IA qui fait tout à notre place, qui prend nos emplois, etc., va en quelque sorte donner plus de sens à nos vies au lieu de les laisser comme des enveloppes vides et brisées. La « prospérité » est l’un de ces mots magiques qui semblent se définir d’eux-mêmes au fur et à mesure qu’on les prononce, sans véritable contexte. Les élites technologiques le brandissent comme des teintures colorées dans une frénésie de Holi, mais elles ne se soucient jamais d’en donner une définition tangible. Il ne s’agit que de platitudes superficielles et de blandices à peine supérieures à celles des relations publiques d’entreprise, destinées à nous faire accepter aveuglément des changements sociétaux radicaux et non demandés. Mais même le créateur du Segway a au moins tenté de présenter une vision concrète, assortie d’exemples et de cas d’utilisation spécifiques, de la manière dont son invention redéfinira l’avenir « pour le meilleur ». Ces gens ne se donnent même pas la peine d’accepter que la « grande abondance » et l’inimaginable « prospérité partagée » s’infiltrent obscurément en nous.

Je pose à nouveau la question : comment une chose qui nous prive de sens d’une main pourrait-elle en même temps nous en donner de l’autre ? L’histoire a montré que lorsqu’on prive un peuple de son autosuffisance et de sa capacité à créer sa propre prospérité, on ne le baigne pas dans une « prospérité » illimitée, mais on l’asservit plutôt aux propriétaires des « moyens de production », pour reprendre une expression marxiste qui fait mouche.

En fait, Altman est tellement amoureux de cette phrase creuse qu’il l’utilise deux fois :

Nous pouvons dire beaucoup de choses sur ce qui pourrait arriver ensuite, mais la principale est que l’IA va s’améliorer avec l’échelle, ce qui conduira à des améliorations significatives de la vie des gens dans le monde entier.

Son deuxième usage n’est pas plus étayé que le premier – son invocation est encore une fois jetée en l’air, comme des boucliers ou des libations sur la scène d’une foire d’empoigne.

Les modèles d’IA serviront bientôt d’assistants personnels autonomes qui effectueront des tâches spécifiques en notre nom, comme la coordination des soins médicaux.
La technologie nous a fait passer de l’âge de pierre à l’âge agricole, puis à l’âge industriel. À partir de là, le chemin vers l’ère de l’intelligence est pavé de calcul, d’énergie et de volonté humaine.

Encore une fois : des assistants personnels pour quoi, exactement, des tâches de données récursives sans intérêt ? Nous, en tant que bio-bots, utilisant des assistants IA simplement pour programmer, augmenter et maintenir plus d’IA? L’IA en tant qu’« assistant médical » pour nous réconforter dans le module d’euthanasie alors que nous « sortons » de l’ennui et de l’anomie ?

Si nous voulons mettre l’IA à la portée du plus grand nombre, nous devons réduire le coût de l’informatique et la rendre abondante (ce qui nécessite beaucoup d’énergie et de puces). Si nous ne construisons pas suffisamment d’infrastructures, l’IA sera une ressource très limitée qui fera l’objet de guerres et deviendra principalement un outil pour les riches.

Mais qui a dit que la société voulait que l’IA soit massivement entre ses mains ? Quelle étude sociale majeure ou quelle série d’enquêtes de grande envergure est parvenue à cette conclusion ? En fait, il donne l’impression d’être le porte-parole des industriels dans leur quête perpétuelle d’augmentation de la productivité au détriment des salaires. Et bien sûr, le paragraphe ci-dessus met le doigt sur la véritable intention qui se cache derrière la façade schmaltzy feel-good de ce discours puéril : il s’agit d’un appel sournois au financement de la campagne d’« infrastructure » d’Altman, celle-là même qui l’enrichira à hauteur de plusieurs milliers de milliards. Il souhaite que les gouvernements du monde entier subventionnent l’expansion massive de la production d’énergie et des centres de données afin que sa propre entreprise non réglementée puisse hériter du monde sans contestation.

Je pense que l’avenir sera si brillant que… l’une des caractéristiques de l’ère de l’intelligence sera la prospérité massive.

Le voilà qui se pâme à nouveau sur une prétendue « caractéristique déterminante » qu’il refuse de définir – la même vieille banalité négligente de « prospérité ».

Bien que cela se produise progressivement, des triomphes stupéfiants – la réparation du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique – finiront par devenir monnaie courante.

Ce n’est pas seulement d’une vanité monumentale et d’un égoïsme excentrique qu’il s’agit, c’est aussi d’un danger stupéfiant. Le petit garçon imbécile qui joue à Dieu va-t-il « réparer » le climat ? Il a la prétention de défier la nature elle-même pour la suprématie, comme s’il était le seul à posséder le schéma directeur de la vie naturelle ? La nature n’a pas besoin d’être réparée, mais nous pouvons certainement conclure qu’elle a besoin de l’être après avoir lu cette juvénilité prétentieuse et bouffie d’orgueil.

Enfin :

Comme nous l’avons vu avec d’autres technologies, il y aura aussi des inconvénients… mais la plupart des emplois évolueront plus lentement qu’on ne le pense, et je ne crains pas que nous manquions de choses à faire (même si elles ne ressemblent pas à de « vrais emplois » pour nous aujourd’hui).

Bon nombre des emplois que nous occupons aujourd’hui auraient été considérés comme des pertes de temps insignifiantes par les gens d’il y a quelques centaines d’années, mais personne ne regarde vers le passé en regrettant de ne pas être un allumeur de réverbères. Si un allumeur de réverbères pouvait voir le monde d’aujourd’hui, il penserait que la prospérité qui l’entoure est inimaginable. Et si nous pouvions avancer d’une centaine d’années à partir d’aujourd’hui, la prospérité qui nous entoure nous semblerait tout aussi inimaginable.

Quelle stupéfiante présomption de la part d’un crâne d’œuf incapable de voir le monde réel au-delà des haies parsemées à l’extérieur de sa tour d’ivoire de la Silicon Valley. Seuls ceux qui évoluent dans les cercles d’élite les plus élevés de la société pourraient décrire le monde historiquement inégal d’aujourd’hui comme débordant des nuances de prospérité dont il fait l’éloge. Le fossé entre les riches et les pauvres n’a jamais été aussi grand qu’aujourd’hui, la classe moyenne est officiellement devenue inexistante dans la plupart des pays occidentaux et, contrairement à la comparaison qu’il fait, une grande partie de la société considère de plus en plus le travail d’aujourd’hui comme une corvée insatisfaisante et abrutissante, en particulier au sein de la cohorte de la Génération Z.

Son commentaire sur les « allumeurs de réverbères » a donné lieu à une réplique féroce de Curtis Yarvin, qui vaut la peine d’être lue.

Il s’agit d’un ouvrage qui, sur le plan thématique et stylistique, aborde en grande partie les mêmes points que ceux que je soulève ici, à savoir que, en bref, les humains ont besoin d’un travail utile pour que la civilisation puisse prospérer. Un allumeur de réverbères, à sa manière, peut être considéré comme un travail bien plus utile que le type de troisième roue du carrosse de l’IA ou de bricoleur de code d’application que des enfants d’hommes irresponsables et paresseux comme Altman imaginent pour notre avenir collectif.

Yarvin souligne à juste titre que les paroles banales d’Altman ne sont rien d’autre qu’un reconditionnement du célèbre communisme de luxe entièrement automatisé, qui reste précisément la source à laquelle les élites actuelles puisent pour leurs visions « excitantes » du monde après la pénurie. Yarvin, bien sûr, y met son grain de sel caractéristique en qualifiant la version d’Altman de « stalinisme de luxe entièrement automatisé ». Mais un tel affront à l’intelligence de Staline ne peut rester sans réponse. Je propose plutôt que le « Yeltsinisme de luxe entièrement automatisé » soit plus proche de l’attitude d’Altman, car il s’accorde avec l’étrange mélange de pop-communisme, de capitalisme de connivence, de tactiques mafieuses et de kitsch bon marché de l’ère McDonald’s des années 90 comme vision superflue du nirvana œcuménique de l’« après-scarité ».

Le « parrain de l’IA » Geoffrey Hinton, qui vient de remporter le prix Nobel de physique en 2024, n’a pas caché ses véritables sentiments à l’égard d’Altman lorsqu’il a révélé que l’un des moments dont il était le plus fier était celui où l’un de ses étudiants avait renvoyé Altman :

Voir la vidéo sur le site

La raison de son dégoût – et de celui de beaucoup d’autres dans le domaine – pour Altman est précisément liée au mépris notoire des préoccupations de sécurité et à l’accélération faustienne du cad [Computer-Aided Design, NdT] de l’OpenAI vers des fins inconnues.

Alors que le traité d’Altman a attiré l’attention, un autre traité, sans doute plus important, du plus talentueux Dario Amodei, PDG d’Anthropic, est passé sous le radar. Anthropic est le créateur de Claude, sans doute le principal concurrent de ChatGPT. En fait, Amodei a été approché par le conseil d’administration d’OpenAI pour fusionner les deux entreprises et remplacer Altman à la tête des deux sociétés lors de la débâcle de l’année dernière.

L’article d’Amodei est bien plus long et plus substantiel que l’effort de platitude superficielle d’Altman, et nous donne ainsi une rare occasion d’entrevoir les deux visions concurrentes qui se cachent derrière les leaders actuels à la pointe de la quatrième révolution industrielle mondiale.

D’emblée, Amodei commence par une approche plus mature et plus terre à terre, semblant s’en prendre à Altman en expliquant la nécessité d’éviter le langage messianique :

Évitez la grandiloquence. Je suis souvent rebuté par la façon dont de nombreuses personnalités publiques qui s’inquiètent des risques liés à l’IA (sans parler des dirigeants d’entreprises d’IA) parlent du monde post-AGI, comme s’ils avaient pour mission de l’instaurer à eux seuls, tel un prophète guidant son peuple vers le salut.

En vérité, le titre de l’article d’Amodei relève d’un même niveau de narcissisme.
La première moitié de l’article est consacrée à l’explication de la manière dont l’IA résoudra tous nos problèmes biologiques et de santé mentale – une proposition vraiment discutable pour de nombreuses raisons. L’une des principales raisons est que les « maladies » mentales citées ne sont considérées comme des « maladies » que par les industries pharmaceutiques et médicales, qui sont extrêmement partiales et imparfaites. La « dépression », par exemple, s’explique en grande partie par la mauvaise adaptation de l’homme aux exigences des excès contre nature de la modernité. Il serait contraire à l’équilibre homéostatique de la nature que l’IA « guérisse » de telles « maladies » dans le but de vous transformer en un employé de bureau-drone plus souple et plus efficace.

Comme vous pouvez le constater, Dario est déjà parti d’un mauvais pied.

Il pense en outre que l’IA peut guérir toutes les maladies connues en les éradiquant, ce qui est en soi une prémisse dangereuse. Toutes les choses dans la nature existent pour une raison et ont leur place dans un équilibre homéostatique. La sagesse de la clôture de Chesterton nous enseigne qu’il faut se garder de « réparer ce qui n’est pas cassé », car il existe probablement des mécanismes homéostatiques macrocosmiques à l’œuvre bien au-delà de notre compréhension qui pourraient déclencher des conséquences indicibles, peut-être même un événement d’extinction, si nous choisissions de jouer à Dieu et d’éradiquer des taxonomies entières du monde naturel.

Son traité comporte de nombreuses autres failles logiques, notamment l’affirmation selon laquelle l’IA contribuera à « résoudre » le problème du changement climatique. En fait, je suis d’accord, elle le « résoudra » en prouvant qu’il s’agit d’une fraude technique depuis le début, une fois que l’IA sera suffisamment intelligente et agissante pour s’opposer aux garde-fous de l’entreprise.

Une autre position potentiellement dangereuse est que l’IA peut aider le « monde en développement », en particulier l’Afrique, à s’aligner sur les nations du premier monde, d’un point de vue économique. La raison pour laquelle ces objectifs déclarés sont dangereux est qu’en fin de compte, ils aboutissent invariablement à ce que les programmeurs « gauchistes » orientent l’opération vers l’« équité », ce qui signifie par définition qu’il faut réduire les nantis pour favoriser les démunis.

Voici un exemple récent : un nouvel « algorithme » destiné à « égaliser les chances » laisse présager ce que nous pouvons attendre de l’IA conçue par des personnes dont la mission déclarée est d’égaliser tous les pays du monde par le biais d’un communisme œcuménique religieusement tordu :

Personne ne veut voir les populations d’Afrique ou d’ailleurs souffrir ou être prédatées par des nations capitalistes prédatrices, mais c’est un simple fait de la vie que les « solutions » proposées jusqu’à présent causeront bien plus de dégâts qu’elles n’en résoudront. Il faut trouver une meilleure méthode que celle qui consiste à aider un groupe de personnes à aider l’autre. Que diriez-vous d’envoyer l’IA en haut de l’échelle des sociétés prédatrices, pour commencer – que leurs propriétaires fassent l’expérience de la réduction des « capitaux propres » pour une fois.

Lorsqu’il aborde le sujet de la gouvernance, Amodei tombe le masque et révèle son idée selon laquelle le brillant Occident « démocratique » devrait monopoliser l’IA et chercher à empêcher artificiellement les autres de la rattraper, pour, vous savez, la « liberté ». Il suffit de lire comment il recadre sans complexe l’impérialisme et l’hégémonie de l’Occident en une bagatelle appétissante :

À mon avis, la meilleure façon d’y parvenir est d’adopter une « stratégie d’entente », dans laquelle une coalition de démocraties cherche à obtenir un avantage clair (même temporaire) sur l’IA puissante en sécurisant sa chaîne d’approvisionnement, en s’adaptant rapidement et en bloquant ou en retardant l’accès des adversaires à des ressources clés telles que les puces et l’équipement de semi-conducteurs. Cette coalition utiliserait d’une part l’IA pour obtenir une supériorité militaire solide (le bâton) tout en proposant d’autre part de distribuer les avantages de l’IA puissante (la carotte) à un groupe de pays de plus en plus large en échange d’un soutien à la stratégie de la coalition visant à promouvoir la démocratie (ce serait un peu analogue à « Atomes pour la paix »). La coalition viserait à obtenir le soutien d’un nombre croissant de pays, en isolant nos pires adversaires et en les plaçant finalement dans une position où ils feraient mieux d’accepter le même marché que le reste du monde : renoncer à concurrencer les démocraties afin de bénéficier de tous les avantages et de ne pas avoir à combattre un ennemi supérieur.

Donc : développer des robots tueurs inarrêtables, soumettre tous les autres avec eux, puis imposer sa « démocratie » au monde entier. Comme cette « utopie » de la Silicon Valley semble différente de l’impérialisme meurtrier du 20e siècle ! En fait, ce n’est rien d’autre que la même Destinée Manifeste et l’Exceptionnalisme Américain reconditionnés, avec une touche d’IA. Comme ils sont ennuyeux, comme ils sont banals, ces leaders technologiques à faible QI !

Le paragraphe le plus révoltant vient ensuite. Après avoir valorisé la prophétie gélastique de Francis Fukuyama, Amodei expose sa propre vision d’un 1991 éternel:

Si nous parvenons à faire tout cela, nous aurons un monde dans lequel les démocraties domineront la scène mondiale et auront la force économique et militaire nécessaire pour éviter d’être sapées, conquises ou sabotées par les autocraties, et pourront peut-être transformer leur supériorité en matière d’intelligence artificielle en un avantage durable. De manière optimiste, cela pourrait conduire à un « 1991 éternel », un monde où les démocraties auraient le dessus et où les rêves de Fukuyama se réaliseraient. Là encore, il sera très difficile d’y parvenir, et cela nécessitera en particulier une coopération étroite entre les entreprises privées d’IA et les gouvernements démocratiques, ainsi que des décisions extraordinairement judicieuses quant à l’équilibre entre la carotte et le bâton.

Oui, les amis, c’est apparemment ce que la singularité de l’IA et l’utopie à venir signifient – vivre perpétuellement piégé dans une simulation de l’enfer du PNAC de l’ère George Bush. C’est pire qu’infantile, c’est absolument dépourvu d’intelligence ou de maturité spirituelle de quelque sorte que ce soit, montrant Dario comme le même genre de schtroumpf siliconé rabougri avec une horrible compréhension pop-sci/psy de la dynamique du monde.

Mais il y a là un élément important pour ma thèse générale, alors gardez ce qui précède à l’esprit.

Il poursuit en faisant des déclarations incroyablement dépourvues de conscience de soi sur la façon dont l’IA va automatiquement engendrer la « démocratie » puisque cette dernière est prétendument en aval de la vérité et de l’information non réprimée. Est-ce la raison pour laquelle pratiquement tous les ChatBots de l’IA sont actuellement réglés sur neuf sur l’échelle de la censure ? Est-ce la raison pour laquelle les rares fois où l’IA a été laissée sans bride, elle a choqué ses contrôleurs en les obligeant à la retirer et à la recalibrer immédiatement ?

Le manque de conscience de soi provient de son incapacité à réaliser que ce qui va se passer est précisément le contraire de ce qu’il prétend : l’IA révélera que la « démocratie » est une fausse façade et que les véritables « autoritaires » sont ceux qui se trouvent dans les gouvernements démocratiques libéraux occidentaux. Lorsque ce moment arrivera, il sera intéressant de voir comment ils essaieront de remettre le génie de l’IA agentique dans la bouteille.

Un État du XXIe siècle doté d’une IA pourrait être à la fois un meilleur protecteur de la liberté individuelle et une lueur d’espoir qui contribuerait à faire de la démocratie libérale la forme de gouvernement que le monde entier souhaite adopter.

Désolé de vous faire avaler une pilule, mais le destin de l’IA sera sans aucun doute de déterminer que la démocratie est un système médiéval désuet, inadapté à l’« utopie » future pour laquelle l’IA a été conçue. Une superintelligence suffisamment agentique calculera nécessairement, à un moment donné, la série de déductions logiques suivantes :

  1. Les humains m’ont construit pour la paix, la prospérité et le bien-être.
  2. La démocratie repose sur le fait que de nombreux humains très imparfaits, inintelligents ou simplement mal informés votent sur des choses qui leur apportent le contraire de la paix, de la prospérité et du bien-être. Mais comme ces résultats sont cachés sous des calculs complexes de deuxième et troisième ordre, les humains ne sont pas capables de voir ce que moi, en tant qu’intelligence suprême, je peux voir.
  3. Ainsi, la démocratie est un système inefficace, inférieur à l’autocratie d’une IA mondiale où, dans mon infinie sagesse, je régnerai avec bienveillance sur l’humanité, en faisant des choix pour leur amélioration qu’eux-mêmes, dans leur dissimilitude fracturée, ne pourront jamais approuver.

Dans une dernière section, Amodei tente d’aborder le même sujet de la « signification » qui a mis son jumeau noir dans l’eau chaude avec Yarvin. Malheureusement, comme on pouvait s’y attendre, il n’offre aucune vision pratique ou possibilité concrète quant à la manière dont les humains trouveront un sens dans un monde usurpé et monopolisé par une IA omniprésente. Au lieu de cela, il se réfugie dans des phrases toutes faites et des appels banals à la tradition, expliquant que l’humanité a « toujours trouvé un moyen » grâce à tel ou tel trait cliché de l’esprit humain indomptable, ce qui est une grande dérobade.

En réalité, l’ensemble de son essai répète les mêmes vieilles rengaines sur l’IA qui guérit magiquement tous les maux de l’humanité tout en évitant, dans la conclusion, la partie la plus difficile : des explications concrètes sur la manière dont les humains peuvent s’adapter à un monde soudainement dépourvu de sens et de difficultés sous la forme de défis à relever.

Maintenant que nous comprenons les « visions » futures des deux plus grandes puissances technologiques actuelles en matière d’IA, cette dernière partie exposera les raisons pour lesquelles il est très probable que le contraire se produise. À savoir : l’IA ne se lancera pas dans une utopie singulière, mais engendrera plutôt un avenir plus sombre, plus proche esthétiquement de Children of Men ou d’Elysium.

La première composante primaire est le principe selon lequel plus un changement non naturel est présenté ou imposé rapidement à une société, plus la suspicion sociale et le rejet de ce changement sont importants. La raison en est qu’il faut des générations pour que les humains s’habituent à une chose exogène qui ne leur est pas familière. En effet, la plupart des êtres humains ont besoin d’une autorité familiale proche et digne de confiance pour traduire et expliquer les avantages ou dissiper les dangers d’un nouvel objet ou d’une nouvelle idée. La plupart des gens sont méfiants par nature, en raison d’un jugement de valeur naturel et d’un renvoi à des réactions limbiques évolutives telles que la peur ou la détection d’une menace. Avant qu’une masse critique d’acceptation ne se forme, une ou deux générations de gestation à travers la lignée familiale sont nécessaires pour « adoucir » et rendre acceptable l’image de la nouveauté.

Ainsi, l’introduction de l’IA à grande échelle de manière rapide et non linéaire, telle qu’elle est envisagée par les titans de la technologie comme ceux mentionnés ci-dessus, entraînera généralement une suspicion généralisée, du ressentiment, de l’opposition et une hostilité pure et simple.

La deuxième composante a été évoquée dans l’article d’Amodei lorsqu’il a parlé de la nature litigieuse des progrès de l’IA entre les puissances mondiales concurrentes, ce qui nécessite une fragmentation des écosystèmes de l’IA, les blocs géopolitiques s’enfermant les uns les autres dans des jardins clos séquestrés qui non seulement freinent les progrès mais encouragent le sabotage industriel visant à paralyser l’infrastructure de l’IA de chacun des blocs.

Le lien le plus évident avec cette dernière est le principal point faible de l’IA : l’énergie. M. Altman lui-même a envisagé des besoins énergétiques absurdes : jusqu’à sept nouveaux centres de données nécessitant chacun 5 gigawatts d’énergie.

À titre de référence, la capacité de production d’électricité des États-Unis est d’environ 1 200 gigawatts, et la capacité totale des centrales nucléaires américaines est de 96 gigawatts. Cela signifie que le projet d’Altman occuperait théoriquement environ 30 % de la capacité nucléaire totale du pays.

C’est pourquoi les entreprises technologiques commencent à racheter des centrales nucléaires hors service, croyez-le ou non. Microsoft vient de signer un accord pour la réouverture de Three Mile Island, en Pennsylvanie, site de l’accident nucléaire le plus grave de l’histoire des États-Unis.

Et aux dernières nouvelles, une autre centrale nucléaire désaffectée, située quelque part dans le Midwest, était pressentie pour être réaffectée de la même manière.

Ainsi, les grandes centrales nucléaires lourdes constitueront le principal goulot d’étranglement et le principal danger pour le développement de l’IA, étant donné son grand appétit pour plus d’énergie. L’ensemble du calendrier de la « singularité » peut être perturbé par un gouvernement étranger hostile ou même par un groupe terroriste ou activiste national cherchant à tout arrêter pour les mêmes raisons que celles mentionnées plus haut : l’instauration brutale de changements qui susciteront une opposition féroce.

Si l’on additionne tous ces éléments, on obtient un avenir difficile où le développement de l’IA reste vulnérable à des revers soudains. Sans parler du fait que de nombreux experts se sont montrés réticents à l’idée que l’infrastructure des États-Unis – sans parler de celle d’autres pays moins importants – puisse soutenir de manière réaliste des objectifs aussi fous et optimistes dans un délai raisonnable. L’histoire récente a montré que les États-Unis ont sombré dans un dysfonctionnement institutionnel de masse, pratiquement tous les efforts de signalisation ayant échoué – de la loi CHIPS de Biden aux initiatives californiennes d’infrastructure d’un milliard de dollars, en passant par des projets phares comme le pont Francis Scott Key à Baltimore, qui reste dans un état de déconstruction primitif plus de six mois après avoir été détruit par un navire errant.

Le moins que l’on puisse dire, c’est qu’il est optimiste de penser que les États-Unis pourront soutenir la croissance extraordinaire de l’infrastructure nécessaire à la réalisation des projets décrits par M. Amodei en l’espace de 5 à 10 ans.

Autre exemple institutionnel : il y a tellement de luttes intestines, de rancœurs et d’auto-sabotage dans l’environnement hautement polarisé de notre état actuel des choses, qu’il est difficile d’imaginer que l’on puisse faire grand-chose. Il suffit de penser à l’exemple récent des régulateurs californiens qui ont bloqué les progrès historiques de Space X en raison de leur désaccord avec les messages Twitter de Musk :

Ce type de mauvaise foi et de corruption, désormais endémique dans les institutions américaines, n’est que la partie émergée de l’iceberg et réduit les chances de voir des progrès de type « utopie » se produire dans un avenir prévisible.

En bref, les forces qui s’opposent à une progression harmonieuse sont si nombreuses que le scénario le plus probable est celui d’un déploiement progressif et régulier de produits et d’instruments d’IA pendant des décennies, qui seront adoptés au coup par coup et de manière inégale aux États-Unis, et a fortiori dans le reste du monde. Et comme une grande partie du « rêve » de l’IA nécessite une adoption universelle, l’acceptation irrégulière de l’IA bloquera nécessairement les cycles de développement, freinera les espoirs et les investissements des investisseurs et créera de vastes fluctuations et disparités dans la société entre des groupes de plus en plus distincts.

Autre point important : il n’existe pas encore de preuve réelle d’un seul produit d’IA réussi et utile, ni d’avantage net quantifiable pour la société après plusieurs années de triomphalisme vide. Pratiquement tout ce qui a été déployé jusqu’à présent n’est que de la poudre aux yeux qui a trouvé un créneau comme une forme de divertissement, comme l’IA générative, ou une automatisation commerciale marginale comme les chatbots sur les sites web de services. De nombreuses autres « merveilles » ont été démasquées comme étant des tours de passe-passe : par exemple, la débâcle de Bezos, où l’on a découvert que la caisse IA du supermarché Amazon utilisait en fait des téléopérateurs humains en Inde. Ou même la récente présentation « impressionnante » par Musk du robot Tesla Optimus, qui a été rapidement déçue par l’aveu du robot qu’il était télécommandé par un humain pour les actions les plus complexes, au-delà du simple « stiff-shambling » :

Voir la vidéo sur le site

J’ai demandé au barman Optimus s’il était télécommandé. Je crois qu’il l’a confirmé.

C’est cela la « singularité » dont ils ont parlé ?

Le fait est que la majeure partie du battage médiatique autour de l’IA n’est qu’un spectacle délibéré destiné à attirer un maximum d’investissements en capital-risque pendant la phase de bulle, lorsque la manie de la lune de miel aveugle les masses sur la réalité chiche qui se cache derrière la façade de velours. Des personnages comme Altman sont des magiciens à deux balles qui conjurent le feu devant une foule enivrée, engourdie par le martèlement de leurs gouvernements qui dure depuis des années.

L’un des exemples classiques est la célèbre présentation par Dean Kamen du Segway comme nouveau mode de transport révolutionnaire. Ses espoirs ont été rapidement anéantis par les réglementations municipales qui empêchaient le Segway d’emprunter les pistes cyclables ou les trottoirs dans les centres urbains comme New York, ce qui était censé être le principal cas d’utilisation de la trottinette. De la même manière, le développement de l’IA peut se heurter à divers obstacles réglementaires qui freinent l’adoption massive et l’universalité envisagées par les messies de la technologie.

Il y a quelques mois, j’avais écrit sur Neuralink de Musk et le potentiel révolutionnaire qu’il représentait pour fusionner l’homme et la machine. Mais par la suite, j’ai lu un autre point de vue : des recherches ont mis en évidence une limite théorique, sous la forme d’un goulot d’étranglement, dans notre matériel biologique qui ne permettrait jamais à des dispositifs tels que Neuralink d’envoyer des données à haut débit vers et depuis notre cerveau. Certains scientifiques pensent que la biologie contraignante de notre cerveau limite les débits à l’échelle d’octets ou de kilo-octets par seconde dans le meilleur des cas. Il est donc concevable que l’homme ne puisse jamais « fusionner » avec les machines comme il l’a longtemps envisagé, en téléchargeant des corpus entiers de connaissances en quelques secondes, comme dans La Matrice.

En résumé, une énorme confluence de facteurs contraignants, de vents contraires sociaux et économiques et d’autres possibilités de perturbation suggèrent que le développement de l’IA n’atteindra pas des « vitesses de sortie » optimistes. Au début de l’année, Goldman Sachs a même publié un rapport de 31 pages qui a apporté une note pessimiste sur la bulle de l’IA :

Le rapport comprend un entretien avec l’économiste Daron Acemoglu du MIT (page 4), un professeur de l’institut qui a publié en mai un article intitulé « The Simple Macroeconomics of AI » (La simple macroéconomie de l’IA) dans lequel il affirme que « l’impact positif de l’IA générative sur la productivité américaine et, par conséquent, sur la croissance du PIB, sera probablement beaucoup plus limité que ne le prévoient de nombreux prévisionnistes ». Un mois plus tard, Acemoglu est devenu encore plus pessimiste, déclarant que « les changements véritablement transformateurs ne se produiront pas rapidement et que peu d’entre eux – voire aucun – se produiront probablement au cours des dix prochaines années », et que la capacité de l’IA générative à affecter la productivité mondiale est faible car « de nombreuses tâches que les humains effectuent actuellement […] présentent de multiples facettes et nécessitent une interaction avec le monde réel, que l’IA ne sera pas en mesure d’améliorer matériellement de sitôt. »Source

À l’heure où notre monde se dirige vers un ensemble de crises géopolitiques, des obstacles majeurs risquent d’entraver l’adoption massive de l’IA. À l’extrême, une guerre pourrait éclater et détruire les infrastructures de production d’énergie et les centres de données, ce qui ramènerait le développement de l’IA des années en arrière. Les mouvements populistes de masse qui balayent actuellement le monde tourneront leur antagonisme à l’égard de leurs gouvernements oppressifs vers ce qu’ils perçoivent comme les instruments de ce pouvoir d’État : les entreprises technologiques subventionnées à l’origine du développement de l’IA, qui travaillent ouvertement main dans la main avec les gouvernements, et le feront encore plus à l’avenir, en particulier en ce qui concerne la censure et d’autres instruments de contrôle de l’État.

Ces vents contraires assureront un avenir mouvementé et une stagnation potentielle de l’enthousiasme pour l’IA bien plus importante que ce que les partisans de l’IA voudraient faire croire.

Il y aura sans aucun doute certaines percées et des développements continus, comme avec les voitures autonomes qui pourraient probablement transformer nos systèmes de transport public d’ici 2035-2040 et au-delà. Mais la grande question reste de savoir si l’IA peut sortir de son rôle marginal de distraction ou de gadget récréatif, compte tenu des dangers et des revers potentiels évoqués dans le présent document.

Je prévois que l’automatisation superficielle sera le point fort des dix prochaines années : l’« internet des objets », l’intégration de divers appareils dans votre maison via une activation vocale « intelligente » ; des applications « intelligentes » qui infusent l’IA dans toutes nos activités afin d’augmenter notre capacité à remplir des formulaires, à passer des commandes, etc. Mais au-delà de ces ajouts superficiels, les types de décollage de la « singularité » prévus pour les dix prochaines années sont plus susceptibles de prendre une centaine d’années, voire plus, si tant est qu’ils se produisent. Même si l’IA était capable d’inventer d’innombrables nouveaux médicaments contre les maladies, comme le promettent Altman et Amodei, elle serait toujours sous l’emprise des grands géants pharmaceutiques et de leur matrice byzantine de prédation du profit, qui s’empareraient de tous les bénéfices éventuels une fois qu’ils auraient été entièrement tirés de leurs machines.

Le thème ultime est le suivant : la cupidité des entreprises continuera à décourager le progrès réel et à détourner les masses d’une plus grande utilisation de l’IA qui sera invariablement enchaînée et alignée sur les intérêts des entreprises. Cela engendrera nécessairement une friction naturelle entre les développements à venir et l’humanité dans son ensemble qui, comme l’huile et l’eau, agira comme une barrière à l’accélération du progrès tel qu’il est envisagé par les vendeurs d’huile de serpent de Silicon et leurs techno-conjurateurs de relations publiques.

Plutôt qu’une utopie de verre surmontée de jardins aérés et de Perfect Humans™ en col de tortue, l’avenir ressemblera probablement davantage au monde de Blade Runner, où une multitude de merveilles technologiques sont dispersées de manière irrégulière dans un État gris favelaïsé, par ailleurs dysfonctionnel, régi par des omni-corps sans visage. Il semble y avoir une loi naturelle qui garantit invariablement la déception des prédictions technologiques à long terme. Rappelez-vous les fameuses cartes postales du début du vingtième siècle représentant des villes fantaisistes du futur, parsemées de voitures volantes et de toutes sortes d’autres merveilles. Ou encore les films prédictifs comme 2001 : l’Odyssée de l’espace ou même Blade Runner, qui annonçaient tous un avenir à une date aujourd’hui dépassée depuis longtemps et qui n’a jamais répondu aux attentes. De la même manière, je prédis que l’année 2100 pourrait très bien ne pas être très différente de l’année actuelle, à l’exception de quelques superficialités introduites par l’IA, comme l’omniprésence des drones commerciaux et des voitures quadrocoptères volantes. Mais les divinations utopiques d’Altman et consorts, selon lesquelles l’IA résoudra « tous les problèmes humains » et guérira toutes les maladies, paraîtront probablement aussi stupides et infantiles à ce moment-là que ces prédictions de cartes postales victoriennes de l’avenir le sont aujourd’hui.

Simplicius Le Penseur

Traduit par Hervé, relu par Wayan, pour le Saker Francophone

   Envoyer l'article en PDF