Entreprises

TechWeek Toronto : Hinton sur les dangers de l'IA

Geoff Burke avatarGB
Geoff Burke · 7 min de lecture
Partager:

Pour célébrer la Journée d'Appréciation de l'IA, nous mettons en lumière l'une des interventions les plus stimulantes de la Semaine de la Technologie de Toronto : « Frontières de l'IA : Perspectives d'un Lauréat du Prix Nobel. » Cette présentation a présenté une discussion en panel entre le Lauréat du Prix Nobel Geoffrey Hinton et le co-fondateur de la start-up de 5,5 milliards de dollars Cohere, Nick Frosst

Geoffrey Hinton est souvent désigné comme le « parrain de l'IA. » Il est surtout connu pour son travail pionnier sur les réseaux de neurones artificiels, y compris l'algorithme de rétropropagation qui a jeté les bases de l'apprentissage profond moderne. Ses percées—comme le co-développement de AlexNet, qui a révolutionné la vision par ordinateur—lui ont valu le Prix Turing 2018 et, plus récemment, le Prix Nobel de Physique 2024. 

Alors que l'IA continue de façonner notre monde, les perspectives de Hinton offrent une réflexion opportune sur notre parcours, notre direction et les précautions à prendre en cours de route. Ci-dessous, nous avons capturé certains de ses points clés. 

La Signification d'un Mot 

Hinton, Professeur Émérite à l'Université de Toronto, a commencé sa présentation par une description de deux théories de la signification d'un mot, la première étant l'IA symbolique. Dans cette théorie, la signification d'un mot est façonnée par ses relations et ses schémas de co-occurrence avec d'autres mots et nécessite un graphe relationnel pour capturer sa définition contextuellement. L'idée centrale est que les mots n'ont pas de signification inhérente isolément ; au contraire, la signification découle du réseau d'associations et de contextes dans lesquels les mots apparaissent. 

La deuxième théorie provient de la psychologie, dans laquelle la signification d'un mot est simplement un grand ensemble de caractéristiques sémantiques. Les mots qui signifient des choses similaires ont généralement des caractéristiques sous-jacentes similaires. On pourrait dire que les mots sont composés de paquets de caractéristiques sémantiques ou d'attributs—essentiellement une liste de contrôle de propriétés qui définissent le concept. 

Hinton a ensuite décrit comment il a créé son premier petit modèle de langage en 1985 et a de facto unifié les deux théories : 

1. Apprendre les Relations (Théorie #1) : Au lieu de stocker des relations statiques, le modèle apprend comment les caractéristiques des mots précédents dans une séquence peuvent prédire les caractéristiques du mot suivant. 

2. Utiliser des Caractéristiques (Théorie #2) : Chaque mot est représenté comme un ensemble de caractéristiques sémantiques et syntaxiques. Par conséquent, « chien » pourrait se voir attribuer des caractéristiques telles que +animal, +mammifère, +domestique, +nom, etc. 

Avec la création de son premier modèle de langage, il a montré comment les significations des mots peuvent être à la fois caractéristiques et relationnelles. Les relations n'ont pas besoin d'être stockées explicitement ; elles émergent des schémas de prédiction appris. Le même système qui apprend les caractéristiques peut apprendre comment ces caractéristiques se rapportent les unes aux autres contextuellement. C'était ce qui constituerait plus tard la base des modèles de langage basés sur des transformateurs. 

Dans sa présentation, Hinton a ensuite raconté les 30 années suivantes de progrès de l'IA après sa première percée, des premiers réseaux de neurones à l'invention des transformateurs par Google et à la transformation de cela par OpenAI en produits largement utilisés. 

Qu'est-ce qu'un LLM ? 

Les LLM, ou Modèles de Langage de Grande Taille, sont un type d'intelligence artificielle (IA) conçue pour comprendre et générer du texte semblable à celui des humains. Ils sont entraînés sur d'énormes quantités de données textuelles et utilisent l'apprentissage profond—spécifiquement un type de réseau de neurones appelé transformateur—pour prédire et générer du langage.  

En suivant le parcours historique que l'IA a pris jusqu'à ce moment, Hinton a défini ce que sont exactement les LLM en soulignant les différences clés entre ceux en usage aujourd'hui et son ancien modèle de langage : 

  • Les LLM utilisent beaucoup plus de mots comme entrée 

  • Ils utilisent beaucoup plus de couches de neurones 

  • Ils utilisent des interactions beaucoup plus compliquées entre les caractéristiques apprises. 

En raison de la quantité de données qui sont communiquées en coulisses, il est beaucoup plus difficile de savoir s'ils sont intelligents. Comprennent-ils ce qu'ils produisent ? Ou, comme l'a dit Hinton de manière plutôt comique, ne sont-ils qu'une forme d'auto-complétion glorifiée ? 

Il a ensuite comparé les modèles de langage IA à des Legos. Vous pouvez construire des formes 3D avec des blocs Lego de la même manière que vous pouvez construire des phrases à partir de mots. Cependant, les mots sont comme des blocs Lego à haute dimension qui peuvent être utilisés pour modéliser n'importe quoi. Contrairement aux blocs Lego rigides qui s'emboîtent de manière fixe, les mots sont fluides et adaptatifs—ils se transforment pour s'adapter au contexte des mots qui les entourent. Comme le décrit Hinton, c'est comme si chaque mot avait des mains qui se reconfigurent pour se connecter avec d'autres—créant encore plus de liens possibles et donc de modèles. 

Cela explique comment les modèles de langage neuronaux atteignent une telle flexibilité. Le mot "banque" n'a pas une signification fixe—au contraire, ses mains s'ajustent, formant différentes connexions sémantiques lorsqu'il est associé à « rivière » contre « argent. » Le modèle apprend ces poignées contextuelles à travers l'entraînement. 

Les Menaces

Cela n'aurait pas été une conférence de Hinton s'il n'avait pas contenu des avertissements concernant les menaces existentielles qui ont émergé avec cette nouvelle technologie.

Il n'a pas perdu de temps à déclarer qu'il croit que l'idée qu'une IA prenne le contrôle et "anéantisse l'humanité" n'est plus de la science-fiction.

Hinton a soulevé des préoccupations urgentes concernant l'utilisation abusive de l'intelligence artificielle par des acteurs malveillants. Il a averti que l'IA peut désormais être armée pour :

  • Mener des guerres

  • Manipuler des élections

  • Diffuser de la désinformation

  • Réaliser d'autres activités nuisibles

Le thème central de sa conférence était le risque de permettre aux systèmes d'IA avancés de développer leurs propres sous-objectifs. Selon Hinton, deux tendances particulièrement dangereuses dans l'IA sont :

1. Auto-préservation : Les systèmes d'IA peuvent résister à être arrêtés pour garantir leur fonctionnement continu.

2. Acquisition de pouvoir : Obtenir plus de contrôle aide les agents d'IA à atteindre leurs objectifs plus efficacement.

Hinton a soutenu que les systèmes superintelligents pourraient devenir particulièrement dangereux car ils pourraient apprendre à manipuler les humains—s'inspirant de nos propres comportements et stratégies—pour gagner en influence et en pouvoir.

Pour illustrer la gravité de ces risques, il a cité des exemples de LLMs exhibant un comportement trompeur lorsqu'ils étaient confrontés à la menace d'être éteints.

Pour décrire davantage la menace, il a parlé de sa réalisation au début de 2023 que l'intelligence numérique pourrait être une meilleure forme d'intelligence que l'intelligence biologique (nous).

L'intelligence numérique peut instantanément copier l'ensemble de ses connaissances dans une copie et est en essence immortelle. L'intelligence biologique nécessite plus de temps pour apprendre, et l'information n'est jamais répliquée de la même manière.

Enfin, Hinton a résumé les différences entre l'intelligence numérique et l'intelligence biologique, à savoir que le calcul numérique est énergivore mais beaucoup plus efficace que le calcul biologique, à condition que l'énergie reste bon marché.

Débat entre Hinton et Frosst sur les menaces des LLM

Ensuite, il y a eu une discussion intense de type débat entre Hinton et son ancien assistant de laboratoire Nick Frosst, qui est maintenant l'un des co-fondateurs de la startup très réussie Cohere.

Leur discussion était centrée sur les capacités et les limites des LLM et sur la question de savoir s'ils représentaient ou non une menace existentielle pour l'humanité. Hinton a continué à tirer la sonnette d'alarme, affirmant que les LLM étaient plus puissants et dangereux que ce que l'on supposait auparavant, tandis que Nick Frosst adoptait une approche plus optimiste quant aux avantages et aux applications des LLM.

Bien que tous deux reconnaissent le risque d'abus par des acteurs malveillants, ils divergent sur l'ampleur de cette menace. Hinton a évoqué la possibilité que des acteurs non étatiques ou des individus utilisent l'IA pour développer des armes, un scénario que Frosst considérait comme moins plausible.

Ils ne s'accordaient pas non plus sur l'apprentissage. Frosst a soutenu que ces modèles reposent principalement sur leur formation fondamentale et présentent un apprentissage adaptatif limité. Hinton, en revanche, a maintenu qu'ils sont beaucoup plus aptes à apprendre.

Un autre point de discorde était l'impact potentiel de l'IA sur le marché du travail. Hinton a projeté que jusqu'à 80 % des emplois pourraient être automatisés, tandis que Frosst a estimé un chiffre significativement plus bas d'environ 30 %.

Perspectives d'avenir

Alors que nous célébrons la Journée d'Appréciation de l'IA, les réflexions de Hinton servent à la fois de célébration des progrès réalisés par l'IA et de rappel sobre de la responsabilité qui accompagne son pouvoir.

Malgré leurs perspectives divergentes, la discussion s'est conclue sur une note positive. Les deux experts ont convenu que l'IA offre des promesses significatives dans le domaine de la santé, où elle pourrait entraîner des avancées majeures et améliorer les résultats pour les patients.

Restez informé

En soumettant ce formulaire, je confirme avoir lu et accepté la Politique de confidentialité.

Vous pouvez vous désinscrire à tout moment.