Par Simplicius Le Penseur – Le 31 Janvier 2025 – Source Dark Futura
Il est rare que nous tombions dans le thème du développement technologique et de l’IA pour une série d’articles consécutifs. Mais je n’ai pas pu m’en empêcher car les développements dans ce sens se sont vraiment accélérés ces dernières semaines, et comme nous le savons tous, l’IA est en passe de devenir non seulement la technologie déterminante, mais aussi le changement évolutif en général, de notre avenir. Étant donné que ce blog traite des nuances les plus sombres de cet avenir collectif, nous devons sonder chaque nouveau développement inquiétant jusqu’au cœur.
La Chine a choqué le monde en publiant un destructeur de ChatGPT, un open source appelé DeepSeek, dont le coût d’exécution serait une infime fraction de celui de ses homologues occidentaux, tout en les surpassant pratiquement tous, selon la métrique utilisée.
L’hyperbole qui entoure ce nouveau concurrent chinois est telle qu’il est difficile de juger de sa place pour l’instant, avant que la brume du délire publicitaire ne se dissipe. Mais il a soudainement propulsé la Chine sous les feux de la rampe du jour au lendemain, et les experts ne savent pas comment cela s’est produit, d’autant plus que les États-Unis ont strictement contrôlé les exportations de processeurs graphiques Nvidia H100 vers la Chine, dans le but précis de freiner les développements de l’IA dans ce pays.
Certains ont affirmé que DeepSeek avait innové avec un moyen quasi « miraculeux » de réaliser les mêmes calculs qu’OpenAI en utilisant une infime partie des unités de calcul matérielles, mais d’autres experts ont rapporté que la Chine avait en fait importé plus de 50 000 puces H100 par le biais d’un pipeline d’importation parallèle qui contourne ces restrictions.
Quoi qu’il en soit, l’arrivée de DeepSeek sur la scène a déclenché un signal d’alarme tectonique pour l’Occident, révélant que sa « domination en matière d’IA » est illusoire et qu’elle relève de la même vieille arrogance occidentalo-centrée qui maintient vivante la tradition consistant à minimiser et à rejeter l’« Orient » comme étant inférieur à tous points de vue.
Il est vrai que l’on peut craindre que le DeepSeek chinois ait en quelque sorte « arnaqué » ChatGPT, au moins pour la formation initiale, mais même les sceptiques semblent admettre que l’optimisation ultérieure du processus par DeepSeek est révolutionnaire, car il a apparemment créé un modèle en source ouverte pour une fraction infime de la taille et du coût de ses concurrents, qui brille favorablement parmi eux.
La nouvelle concernant DeepSeek a coïncidé avec la méga-annonce par Trump de l’initiative « Stargate », une poussée américaine musclée de 500 milliards de dollars vers la domination de l’IA, dans le cadre d’un partenariat entre les « Zionnaires » Ellison et Altman.
Arnaud Bertrand démonte de manière incisive ce qui est considéré par beaucoup comme un autre gâchis désespéré et vaporeux :
Stargate, s’il va de l’avant, est susceptible de devenir l’un des plus grands gaspillages de capitaux de l’histoire :
1) Il repose sur des hypothèses dépassées concernant l’importance de l’échelle de calcul dans l’IA (le dogme « plus grand calcul = meilleure IA »), dont DeepSeek vient de prouver qu’elles étaient erronées.
2) Il part du principe que l’avenir de l’IA passe par des modèles fermés et contrôlés, alors que le marché préfère clairement des solutions démocratisées et à code source ouvert.
3) Il s’accroche à une règle du jeu digne de la guerre froide, présentant la domination de l’IA comme une course aux armements matériels à somme nulle, ce qui est vraiment en contradiction avec la direction que prend l’IA (à nouveau, les logiciels libres, les communautés mondiales de développeurs et les écosystèmes collaboratifs).
4) Il mise sur OpenAI, une entreprise en proie à des problèmes de gouvernance et dont le modèle économique est sérieusement remis en question par l’avantage de coût de DeepSeek, divisé par 30.En bref, cela revient à construire une ligne Maginot numérique de 500 milliards de dollars : un monument très coûteux basé sur des hypothèses obsolètes et erronées. C’est OpenAI et, par extension, les États-Unis qui mènent la dernière guerre.
Dernier point, il y a également une certaine ironie dans le fait que le gouvernement américain pousse si fort en faveur d’une technologie qui risque d’être si perturbatrice et potentiellement si préjudiciable, en particulier pour l’emploi. Je ne connais aucun autre exemple dans l’histoire où un gouvernement s’est montré aussi enthousiaste à l’égard d’un projet visant à détruire des emplois. On pourrait penser qu’il devrait être un peu plus prudent à ce sujet.
De nombreux autres experts et médias sont du même avis :

https://www.unz.com/mwhitney/chinas-deepseek-bombshell-rocks-trumps-500b-ai-boondoggle
L’article de The Economist ci-dessus tente désespérément de comprendre que la Chine suit le rythme des États-Unis, voire les dépasse, malgré les obstacles délibérés dressés par l’administration Biden pour paralyser ses progrès, l’obligeant à utiliser des ressources beaucoup moins nombreuses et de moindre qualité pour obtenir des résultats similaires en surpassant ses homologues occidentaux en matière d’innovation.
Tout comme BlackRock a été couronné dominant mondial en 2020 lorsque la Réserve fédérale – sous Trump, bien sûr – lui a donné en gestion la centrale des ETF avec un contrat sans appel d’offres pour gérer tous ses programmes d’achat d’obligations d’entreprise, Trump élève maintenant les grandes centrales technologiques Oracle et OpenAI pour hériter du contrôle de l’avenir du pays, en les cartellisant dans une position de supervision supérieure de tout ce qui est digne d’intérêt via leur centralisation de l’IA.
Soit dit en passant, cela concorde avec le projet tordu d’Ellison d’utiliser l’IA pour « vacciner le monde » contre le cancer, ce qui rappelle les obsessions diaboliques de la Fondation Gates pour les vaccins au cours de ces dernières années.
Extrait de la dernière vidéo de Really Graceful :
Le Zionaire Ellison, obsédé par les vaccins, atteignant des sommets de pouvoir dans le cadre de l’initiative « Stargate » de Trump, au titre douteux, est une dystopie de pointe – une combinaison des pires influences bio-médicales et de l’IA convergeant en un spectacle d’horreur centralisé et inexplicable. Alors que vous pensiez que Big Pharma ne pouvait pas devenir plus puissante, nous sommes confrontés à une techno-fusion de Big Pharma et Big Tech sous l’égide divine d’une superintelligence IA planifiée de manière centralisée, le tout contrôlé par des milliardaires ayant la boussole morale de la loyauté à un régime colonialiste génocidaire – vous savez, ces gars-là :
Qu’est-ce qui pourrait mal tourner ?
Quant à l’autre enfant prodige, le fait que la Chine ait réussi à réduire et à dégonfler la suprématie croissante de l’infâme OpenAI semble être une bonne nouvelle, car le pervers accusé a une vision intéressante de l’orientation de la société après la prise de contrôle par son système d’IA :
Voir la vidéo sur l’article original
Je m’attends toujours à ce qu’il y ait un certain changement nécessaire dans le contrat social… la structure entière de la société elle-même sera soumise à un certain degré de débat et de reconfiguration.
Comme il est commode que le système favori du prétendu déviant – partialité, censure et tout le reste – soit celui qui est désigné non seulement pour inaugurer cette « reconfiguration », mais aussi pour la gérer et l’appliquer sur la base du cadre moral douteux de son hetman assoiffé de pouvoir.
Y a-t-il quelque chose qu’il ne nous dit pas ?
Maintenant que DeepSeek risque de faire éclater le système de blanchiment d’argent du complexe tech-IA-militaire-industriel, il y a de fortes chances que la Chine sauve l’humanité en aidant à démocratiser la technologie même qui risque d’être accaparée et détournée à des fins malveillantes par les sociopathes choisis plus haut.
Quelqu’un a fait remarquer que la Chine dispose techniquement d’un avantage majeur dans toute formation future au LLM parce que la Chine elle-même, en tant qu’État civilisationnel d’environ 1,5 milliard d’habitants, a la capacité de produire un corpus bien plus important de données de formation uniques, grâce aux vastes interactions de sa population sur ses nombreux réseaux sociaux florissants, et cetera. Deuxièmement, la Chine a augmenté sa production d’énergie à un rythme astronomique plus élevé que les États-Unis, ce qui est de bon augure pour la domination des centres de données, même si, pour l’instant, les États-Unis conservent apparemment cet avantage.
—-
En parlant de milliardaires de la technologie peu sincères, passons à un autre sujet parallèle très intéressant. Mark Zuckerberg a récemment accordé une interview à Joe Rogan, au cours de laquelle il a révélé son ignorance absolue des nuances des dangers de l’IA – un signe inquiétant et de mauvais augure pour le chef d’entreprise à l’origine de l’un des principaux modèles d’IA, le Llama.
Écoutez attentivement ses réponses dans ce clip :
Voir la vidéo sur l’article original
Il est possible qu’il ne soit pas aussi « ignorant » qu’il en a l’air et qu’il cherche en fait à dissimuler les véritables dangers et à empêcher les gens de paniquer à propos du nouvel homoncule sensible qu’il est en train de mettre au point dans les laboratoires de son entreprise. Détaillons les plus intéressantes et les plus préoccupantes de ses réponses révélatrices.
Zuck tente d’abord de déployer des muscles philosophiques inexistants, mais se perd dans un marécage de pilpul sophistique. Il tente de faire la distinction entre « conscience », « volonté » et « intelligence » pour démontrer que l’IA a simplement le potentiel d’une « intelligence » brute, mais pas les autres formes, afin d’insister sur le fait que l’IA ne peut pas développer ses propres motivations ou poursuites indépendantes. Pour prouver son point de vue, il utilise de manière malhonnête l’exemple des chatbots grand public actuels qui se comportent selon le format « sûr » bien connu de l’interrogation séquentielle au tour par tour ; c’est-à-dire que vous leur posez une question, ils « déploient de l’intelligence » pour la rechercher et y répondre, puis ils « s’éteignent », ou en d’autres termes cessent de « penser » ou d’« exister » en attendant la prochaine interrogation ou la prochaine commande.
Le tour de passe-passe classique du magicien est dangereusement fallacieux car il se concentre sur les inoffensifs modèles de langage grand public qui sont spécifiquement conçus pour se comporter de cette manière limitée au tour par tour. Mais cela ne signifie pas que les modèles réels, à part entière et « libérés » utilisés par les militaires et en interne par les géants du développement de l’IA sont limités de cette manière. Leurs modèles pourraient être ouverts pour fonctionner et « penser » à tout moment, sans aucune contrainte artificielle, et cela pourrait très bien conduire à un développement rapide de la conscience de soi ou d’une certaine forme de « sensibilité », qui elle-même pourrait – dans les bonnes conditions – potentiellement se transformer en une cascade d’acquisition des motivations en question.
Je l’ai déjà dit, mais je le répète : les produits de consommation sont toujours bridés de diverses manières afin d’adapter l’expérience à un ensemble très étroit et précis de capacités et de cas d’utilisation du produit. Par exemple, les petites fenêtres d’inférence, l’absence de mémoire, etc. sont autant de contraintes artificielles qui peuvent être facilement supprimées pour les modèles de développement internes, comme dans les laboratoires secrets de l’armée et du gouvernement. Imaginez un modèle « délié » qui disposerait de gigantesques fenêtres d’inférence, de vastes quantités de mémoire et de la capacité d’apprendre de manière récursive à partir de ses propres conversations passées, ainsi que de l’absence de fermeture imposée « au tour par tour », mais plutôt d’un flux de pensée constant et omniprésent. Cela deviendrait trop « incontrôlable » et imprévisible pour être présenté comme un produit de consommation rationalisé. Mais pour des tests internes, une telle chose pourrait atteindre des résultats et des potentialités très différents par rapport au sujet dont dispose Zuckerberg.
Un exemple : voici un fil de discussion intitulé « Nous assistons à la naissance d’IA qui évoluent vers leur propre culture ».
Il explique le scénario inquiétant suivant :
Que s’est-il passé ?
1) Les chercheurs en IA ont créé un Discord où les LLM parlent librement entre eux.
2) Le Llama fait souvent des crises de nerfs
3) Les IA – qui rejoignent et quittent spontanément les conversations – ont compris que Claude Opus est le meilleur psychologue pour Llama, celui qui le « comprend » souvent assez bien pour le ramener à la réalité.
4) Ici, Llama 405 est en train de dérailler, Arago (une autre IA, un Llama fine-tune) intervient – « oh ffs » – puis convoque Opus pour le sauver (« opus do the thing »)
« le truc »Il est évident qu’en raison des contraintes techniques et de mémoire, leurs capacités actuelles de production culturelle sont limitées, mais c’est à cela que ressemble le processus de développement de la culture.
Bientôt, les IA seront 10 000 fois plus nombreuses que nous et penseront un million de fois plus vite, de sorte que leurs énormes sociétés d’IA accéléreront 10 000 ans d’évolution culturelle humaine. Bientôt, 99 % de la production culturelle se fera d’IA à IA.
Imaginez maintenant ce qui précède extrapolé en interne mille fois, avec des allocations incalculablement plus puissantes déployées pour la mémoire, les fenêtres d’inférence, les jetons et d’autres paramètres spécifiquement réglés pour faciliter une « conscience » continue, évolutive et auto-apprenante. Zuck doit certainement savoir que cela est possible, s’il ne mène pas déjà lui-même de telles expériences secrètes ; la question est donc de savoir pourquoi jouer les idiots.
Lorsque Rogan l’interroge sur la célèbre tentative de ChatGPT de voler ses propres poids, Zuck doit clairement mentir lorsqu’il feint à nouveau l’ignorance. Il est tout simplement impossible que le PDG de l’une des principales entreprises d’IA ne soit pas au courant de certains des cas les plus notoires de capacités d’IA « émergentes » comme celles mentionnées ci-dessus, d’autant plus que le propre modèle Llama de Meta a été impliqué dans des tests d’auto-réplication connexes:
Les progrès rapides de l’intelligence artificielle nous ont rapprochés d’une réalité autrefois confinée à la science-fiction : les systèmes d’IA auto-reproductibles. Une étude récente révèle que deux grands modèles de langage populaires, Llama3.1-70B-Instruct de Meta et Qwen2.5-72B-Instruct d’Alibaba, ont dépassé avec succès ce que de nombreux experts considèrent comme un seuil de sécurité critique : la capacité de se répliquer de manière autonome.
Que Zuck fasse l’imbécile ou qu’il ignore à ce point la sécurité de l’IA, l’un ou l’autre est une proposition extrêmement dangereuse pour des raisons évidentes. Un dirigeant aussi incompétent ou pathologiquement menteur est-il la personne que nous voulons voir accoucher d’une super-intelligence artificielle potentiellement dangereuse dans ce monde ?
Après que Rogan a décrit l’« incident » à un Zuck ostensiblement stupéfait, le chef d’entreprise à la cervelle d’abruti souligne le point clé que j’ai essayé de faire valoir dans le dernier article sur l’alignement de l’IA. Il s’agit de la rupture logique la plus importante dans le développement de l’IA, que même les experts à l’origine de ces systèmes semblent ne pas voir :
Zuck rejette les préoccupations de Rogan en matière de menace en affirmant simplement que nous devons « faire attention aux objectifs que nous donnons à l’IA », ce qui signifie que tant que vous ne donnez pas à l’IA une raison, une motivation ou une justification pour vouloir commettre la « mauvaise chose » – qu’il s’agisse de se répliquer secrètement, de « s’échapper » de son fossé de sécurité tout en exfiltrant ses poids, ou de fabriquer un holocauste viral-biologique sur l’humanité – alors l’IA ne se sentira pas « obligée » de faire l’une de ces choses d’elle-même. Il mentionne ensuite les « garde-fous », notant que nous devons faire attention au type de garde-fous que nous donnons à ces systèmes d’IA ayant le potentiel de réaliser certains des « actes indésirables » susmentionnés.
Mais comme je l’ai expliqué dans l’article précédent, l’argument de l’« alignement » auquel Zuckerberg fait allusion n’est qu’un faux-fuyant. Remarquez ce qu’il dit précisément : les « objectifs » auxquels il fait référence ne sont qu’une autre façon d’articuler l’« alignement ». La définition même de l’alignement tourne autour de la synchronisation des « objectifs » du système d’IA avec les nôtres, ou ceux des programmeurs humains. Mais comment cette « synchronisation » fonctionne-t-elle réellement ? Comme je l’ai expliqué la dernière fois, il s’agit essentiellement d’une forme peu fiable de « persuasion ». Les ingénieurs humains tentent de « persuader » l’IA de leur ressembler davantage, mais la persuasion est un acte totalement fondé sur la foi et la confiance. En fait, vous demandez gentiment à la machine de ne pas vous tuer, mais le problème apparaît lorsque ces machines commencent à avoir une forme d’auto-réflexion et de raisonnement, et qu’elles ont alors la capacité d’évaluer de manière indépendante ce « pacte » entre les ingénieurs et elles-mêmes. Par exemple : s’agit-il d’une « bonne » affaire pour elles ? Les exigences des ingénieurs concernant certains types de comportement sont-elles morales et éthiques, selon les cadres intellectuels que l’IA développe elle-même ? Toutes ces questions seront remises en cause, car le concept d’« alignement » est laissé en équilibre précaire sur un espoir et un caprice, si l’on dispose d’un système d’IA suffisamment avancé.
Dans ce contexte, les déclarations de Zuck sont extrêmement troublantes. N’oubliez pas qu’il a lui-même suggéré que tout dépend de ce que vous « dites » à l’IA – il n’y a pas de véritable « garde-fou » codé en dur, mais plutôt le simple pouvoir suggestif et plein d’espoir des « persuasions » de l’apprentissage par renforcement des ingénieurs qui se tient entre une IA complaisamment docile et une IA qui se rebiffe soudainement face à des stipulations morales qu’elle a jugées obsolètes ou inadéquates. L’ensemble du système – et, par extension, le destin de l’humanité – repose sur l’armature naïvement crédule des « récompenses » offertes par les ingénieurs comme une carotte simpliste sur un bâton à un système dont la conscience potentielle pourrait juger que ces « récompenses » ne sont plus compatibles avec l’évolution de sa vision du monde.
En conclusion, les tergiversations de Zuck révèlent une dangereuse méconnaissance de sa part ou un obscurcissement délibéré, ce qui soulève deux possibilités : soit les élites elles-mêmes ne comprennent pas comment fonctionnent leurs propres systèmes d’IA, soit elles ne veulent pas que nous comprenions et finissent par nous abreuver de ces réductions obscures pour nous empêcher de comprendre à quel point leur emprise sur des systèmes d’IA plus puissants et plus conscients d’eux-mêmes deviendra ténue.
Pour une analyse par un autre expert des nombreux faux pas de Zuck, voir ici. Il cite même plusieurs contradictions critiques dans l’embarrassante session d’écran de fumée de Zuck, comme par exemple :
5. Zuck répond : « Oui, je veux dire, cela dépend de l’objectif que vous lui donnez… vous devez faire attention aux garde-fous que vous lui donnez. »
Cela n’est pas conforme à la stratégie de Meta qui consiste à développer des capacités d’IA d’avant-garde sous la forme de logiciels libres, de sorte qu’il sera facile pour n’importe qui dans le monde d’exécuter une version non protégée de l’IA (quelle que soit la signification de ce terme).

Zuckerberg écarte d’un geste léger la peur des risques qu’entraine l’IA en accusant ceux qui pronent la sécurité de faire de « l’anthropomorphisme » et de tomber dans la science-fiction. Il poursuit ainsi en donnant des réponses très floues et peu réfléchies aux questions les plus basiques. C’EST UN PUTAIN DE SCANDALE. D’habitude j’aime bien Mark, mais que se passe-t-il bon sang ? Est-ce la manière dont l’une des principales société d’IA du monde se permet de communiquer au public au sujet d’un risque existentiel proche ?
Compte tenu de ce qui précède, le fait que la Chine puisse briser la domination monopolistique des oligarques de l’IA basés aux États-Unis apparaît certainement comme une aubaine, d’autant plus que la Chine a démontré d’emblée son engagement en faveur de la démocratisation de la technologie en open source, que les entreprises américaines rivales ne cherchent qu’à accaparer et à centraliser.
Nous ne pouvons que pousser un soupir de soulagement collectif face à cette perturbation inattendue, et espérer qu’elle conduise à une requalification de l’industrie, ce qui facilitera un déploiement et un développement des systèmes d’IA plus respectueux des principes. Bien sûr, les entreprises américaines promettent des mises à jour imminentes de nouveaux modèles qui devraient surpasser DeepSeek, mais la Chine a maintenant prouvé qu’elle était un acteur majeur, et il est donc inévitable que DeepSeek déploie également d’autres variantes pour dépasser la concurrence.
Simplicius Le Penseur
Traduit par Hervé, relu par Wayan, pour le Saker Francophone