“`html
Un pionnier de l’intelligence artificielle tire la sonnette d’alarme lors d’une interview avec la BBC. Selon lui, l’IA dépassera l’intelligence humaine et présente une véritable menace existentielle.
Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle aux côtés de Yann LeCun, vice-président et Chief AI Scientist chez Meta, et Yoshua Bengio de l’Université de Montréal, a reçu le prix Turing en 2018 pour leurs travaux sur l’apprentissage profond. Mais aujourd’hui, Geoffrey Hinton exprime des réserves sur l’IA. Il y a un an, il quittait son poste chez Google et a publiquement déclaré regretter ses contributions dans ce domaine.
Et si les IA apprenaient à vivre « à l’état sauvage » ? L’hypothèse est peut-être moins folle qu’il y paraît. © Futura
Lors d’une récente interview avec la BBC, Hinton a affirmé que l’IA dépassera inévitablement l’intelligence humaine et qu’un consensus existe parmi les experts à ce sujet. Contrairement à l’idée généralement acceptée que l’IA est simplement un outil statistique incapable de comprendre les données qu’elle traite, Hinton explique que les grands modèles de langage ont été développés pour imiter la manière dont le cerveau humain comprend le langage.
Des robots tueurs et des IA hors de contrôle ?
Pour Geoffrey Hinton, l’intelligence artificielle représente une menace existentielle, notamment par sa capacité à être dupliquée et à partager instantanément les informations, une tâche difficile pour les humains. Il est convaincu que l’IA dépassera l’intelligence humaine, la seule question étant de savoir quand. Et il est impossible de dire si nous pourrons garder le contrôle sur les IA, car nous n’avons jamais été confrontés à une telle situation. Selon lui, il y a 50% de chances que ce problème se pose dans les 5 à 20 prochaines années.
Hinton s’inquiète également des applications militaires, notamment des drones capables de générer de nombreuses cibles. Ce qui le préoccupe le plus est l’arrivée des armes et des robots militaires autonomes, capables de décider eux-mêmes de tuer. Enfin, il craint que l’IA accentue les inégalités en remplaçant les humains dans les tâches basiques, augmentant ainsi la fortune des plus riches. Pour lui, la seule solution serait d’instaurer un revenu de base universel.
“`