Par Evan Gorelick – Le 6 août 2024 – Bloomberg
Dans certains secteurs de l’industrie technologique, on croit fermement que l’entraînement des systèmes d’intelligence artificielle sur de plus grandes quantités de données en ligne permettra à ces outils de s’améliorer au fil du temps, au point de surpasser les humains dans l’exécution de certaines tâches.
Mais un nouvel article de recherche jette un doute sur cette approche et tire la sonnette d’alarme sur ce qui pourrait être une faille fatale dans la manière dont les systèmes d’intelligence artificielle sont développés. Dans cet article, publié par la revue Nature en juillet, les chercheurs constatent que lorsque les modèles d’IA sont entraînés sur des données comprenant du contenu généré par l’IA – ce qui sera probablement de plus en plus fréquent – ils finissent par voir leurs performances se dégrader, un phénomène appelé « effondrement du modèle« .