Par Evan Gorelick – Le 6 août 2024 – Bloomberg

Dans certains secteurs de l’industrie technologique, on croit fermement que l’entraînement des systèmes d’intelligence artificielle sur de plus grandes quantités de données en ligne permettra à ces outils de s’améliorer au fil du temps, au point de surpasser les humains dans l’exécution de certaines tâches.
Mais un nouvel article de recherche jette un doute sur cette approche et tire la sonnette d’alarme sur ce qui pourrait être une faille fatale dans la manière dont les systèmes d’intelligence artificielle sont développés. Dans cet article, publié par la revue Nature en juillet, les chercheurs constatent que lorsque les modèles d’IA sont entraînés sur des données comprenant du contenu généré par l’IA – ce qui sera probablement de plus en plus fréquent – ils finissent par voir leurs performances se dégrader, un phénomène appelé « effondrement du modèle« .







Le préjugé selon lequel il doit y avoir une solution au désordre au Moyen-Orient suppose que l’on sache déjà quel est le problème à résoudre. Un côté dit que le problème vient du terrorisme. L’autre dit que le problème est l’occupation. Les humanitaires affirment que le problème réside dans le meurtre d’enfants. Les internationalistes disent que le problème réside dans les crimes de guerre (soit la disproportion d’un côté, soit l’utilisation de civils comme boucliers de l’autre). D’une manière ou d’une autre, « nous » – qui que nous soyons – devons résoudre le problème.