Tout ce que nous appelons une IA n’est pas en fait une intelligence artificielle. Voici ce qu’il faut savoir : ScienceAlert

En août 1955, un groupe de scientifiques a fait une demande de financement de 13 500 $ US pour organiser un atelier d’été au Dartmouth College, New Hampshire. Le domaine qu’ils se proposaient d’explorer était intelligence artificielle (IA).

Même si la demande de financement était modeste, la conjecture des chercheurs n’était pas: “Chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut, en principe, être décrit avec une telle précision qu’une machine peut être conçue pour le simuler”.

Depuis ces humbles débuts, les films et les médias ont idéalisé l’IA ou l’ont présentée comme un méchant. Pourtant, pour la plupart des gens, l’IA est restée un sujet de discussion et non une partie d’une expérience vécue consciente.

L’IA est arrivée dans nos vies

À la fin du mois dernier, AI, sous la forme de ChatGPTs’est libéré des spéculations de science-fiction et des laboratoires de recherche et sur les ordinateurs de bureau et les téléphones du grand public.

C’est ce que l’on appelle une “IA générative” – ​​tout à coup, une invite intelligemment formulée peut produire un essai ou assembler une recette et une liste de courses, ou créer un poème dans le style d’Elvis Presley.

Bien que ChatGPT ait été l’entrant le plus spectaculaire en une année de succès de l’IA générative, des systèmes similaires ont montré un potentiel encore plus large pour créer de nouveaux contenus, avec des invites de texte à image utilisées pour créer des images vibrantes qui ont même remporté des concours d’art.

L’IA n’a peut-être pas encore de quoi vivre conscience ou une théorie de l’esprit populaire dans les films et les romans de science-fiction, mais elle se rapproche au moins de perturber ce que nous pensons que les systèmes d’intelligence artificielle peuvent faire.

Les chercheurs travaillant en étroite collaboration avec ces systèmes se sont évanouis sous la perspective de la sensibilitécomme dans le cas du grand modèle linguistique (LLM) LaMDA de Google. Un LLM est un modèle qui a été formé pour traiter et générer du langage naturel.

L’IA générative a également suscité des inquiétudes concernant le plagiat, l’exploitation de contenus originaux utilisés pour créer des modèles, éthique de la manipulation de l’information et abus de confiance, et même “la fin de la programmation“.

Au centre de tout cela se trouve la question qui devient de plus en plus urgente depuis l’atelier d’été de Dartmouth : l’IA diffère-t-elle de l’intelligence humaine ?

Que signifie réellement “IA” ?

Pour être qualifié d’IA, un système doit présenter un certain niveau d’apprentissage et d’adaptation. Pour cette raison, les systèmes de prise de décision, l’automatisation et les statistiques ne sont pas de l’IA.

L’IA est généralement définie en deux catégories : l’intelligence artificielle étroite (ANI) et l’intelligence artificielle générale (AGI). A ce jour, AGI n’existe pas.

Le principal défi pour créer une IA générale est de modéliser adéquatement le monde avec l’ensemble des connaissances, de manière cohérente et utile. C’est une entreprise colossale, c’est le moins qu’on puisse dire.

La plupart de ce que nous appelons l’IA aujourd’hui a une intelligence étroite – où un système particulier résout un problème particulier. Contrairement à l’intelligence humaine, une telle intelligence IA étroite n’est efficace que dans le domaine dans lequel elle a été formée : détection de fraude, reconnaissance faciale ou recommandations sociales, par exemple.

AGI, cependant, fonctionnerait comme le font les humains. Pour l’instant, l’exemple le plus notable d’essayer d’y parvenir est l’utilisation de réseaux de neurones et de “l’apprentissage en profondeur” formés sur de grandes quantités de données.

Les réseaux de neurones s’inspirent du fonctionnement du cerveau humain. contrairement à la plupart apprentissage automatique modèles qui exécutent des calculs sur les données d’apprentissage, les réseaux de neurones fonctionnent en alimentant chaque point de données un par un via un réseau interconnecté, en ajustant à chaque fois les paramètres.

Au fur et à mesure que de plus en plus de données transitent par le réseau, les paramètres se stabilisent ; le résultat final est le réseau neuronal “formé”, qui peut alors produire la sortie souhaitée sur de nouvelles données – par exemple, reconnaître si une image contient un chat ou un chien.

Le bond en avant significatif de l’IA aujourd’hui est dû aux améliorations technologiques dans la façon dont nous pouvons former de grands réseaux de neurones, en réajustant un grand nombre de paramètres à chaque exécution grâce aux capacités des grandes infrastructures de cloud computing. Par exemple, GPT-3 (le système d’IA qui alimente ChatGPT) est un grand réseau de neurones avec 175 milliards de paramètres.

De quoi l’IA a-t-elle besoin pour fonctionner ?

L’IA a besoin de trois choses pour réussir.

Tout d’abord, il a besoin de données de haute qualité, impartiales, et en grande quantité. Les chercheurs qui construisent des réseaux de neurones utilisent les grands ensembles de données issus de la numérisation de la société.

Co-Pilot, pour augmenter les programmeurs humains, tire ses données de milliards de lignes de code partagées sur GitHub. ChatGPT et d’autres grands modèles de langage utilisent les milliards de sites Web et de documents texte stockés en ligne.

Les outils texte-image, tels que Stable Diffusion, DALLE-2 et Midjourney, utilisent des paires image-texte à partir d’ensembles de données tels que LAION-5B. Les modèles d’IA continueront d’évoluer en termes de sophistication et d’impact à mesure que nous numériserons davantage nos vies et que nous leur fournirons des sources de données alternatives, telles que des données simulées ou des données provenant de paramètres de jeu tels que Minecraft.

L’IA a également besoin d’une infrastructure informatique pour une formation efficace. À mesure que les ordinateurs deviennent plus puissants, les modèles qui nécessitent maintenant des efforts intensifs et un calcul à grande échelle pourraient, dans un avenir proche, être traités localement. Stable Diffusion, par exemple, peut déjà être exécuté sur des ordinateurs locaux plutôt que sur des environnements cloud.

Le troisième besoin de l’IA est l’amélioration des modèles et des algorithmes. Les systèmes basés sur les données continuent de progresser rapidement dans domaine après domaine autrefois considéré comme le territoire de la cognition humaine.

Cependant, comme le monde qui nous entoure change constamment, les systèmes d’IA doivent être constamment recyclés à l’aide de nouvelles données. Sans cette étape cruciale, les systèmes d’IA produiront des réponses factuellement incorrectes ou ne prenant pas en compte les nouvelles informations apparues depuis leur formation.

Les réseaux de neurones ne sont pas la seule approche de l’IA. Un autre camp important dans la recherche sur l’intelligence artificielle est IA symbolique – au lieu de digérer d’énormes ensembles de données, il s’appuie sur des règles et des connaissances similaires au processus humain de formation de représentations symboliques internes de phénomènes particuliers.

Mais l’équilibre des pouvoirs a fortement penché vers les approches basées sur les données au cours de la dernière décennie, avec les “pères fondateurs” de l’apprentissage en profondeur moderne a récemment reçu le prix Turingl’équivalent du prix Nobel d’informatique.

Les données, le calcul et les algorithmes constituent le fondement de l’avenir de l’IA. Tous les indicateurs montrent que des progrès rapides seront réalisés dans les trois catégories dans un avenir prévisible.

George SiemensCodirectrice, professeure, Center for Change and Complexity in Learning, Université d’Australie du Sud

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.

Leave a Comment