Comment Purdue aide à concevoir l’intelligence artificielle et à renforcer la confiance en elle – WISH-TV | Nouvelles d’Indianapolis | Météo Indiana

WEST LAFAYETTE, Ind. (WISH) – Des chercheurs de l’Indiana contribuent à façonner l’intelligence artificielle qui modifie le monde.

Des chercheurs de l’Université Purdue ont déclaré à I-Team 8 qu’un système informatique qui émule les aspects de la cognition humaine aura un impact sur tous les aspects de la vie des gens, de l’agriculture à la médecine et même la façon dont les étudiants apprennent et écrivent.

Snehasis Mukopadhyay, un professeur d’informatique et de sciences de l’information de Purdue qui a 30 ans de recherche sur l’IA à son actif, a déclaré que l’intelligence artificielle n’est pas ce que les gens imaginent. Il s’agit essentiellement d’un code informatique appelé algorithmes.

“Un algorithme est essentiellement une manière étape par étape de résoudre un problème”, a déclaré Mukopadhyay.

Mukopadhyay a comparé un algorithme à la fabrication du thé. “Tout d’abord, vous réchauffez l’eau, mettez le sachet de thé dans la tasse, versez l’eau, ajoutez le lait et le sucre, remuez.”

Ces mêmes types d’étapes peuvent être appliquées à n’importe quel problème de pensée que les humains peuvent résoudre. Avec des ordinateurs rapides et des algorithmes d’IA, la tâche peut être effectuée très rapidement.

Arjan Durresi, qui est également professeur d’informatique et de sciences de l’information à Purdue, a déclaré que l’IA “sera partout. Déjà, c’est partout.

Durresi dit que lui et son équipe d’étudiants chercheurs proposent des moyens de mesurer la confiance des gens dans les systèmes d’IA actuels dans les domaines de l’agriculture et de la médecine. « En ce moment, ils sont meilleurs que les médecins pour détecter le cancer. Le problème est que, d’une manière ou d’une autre, les médecins ont peur de les utiliser parce qu’ils ne savent pas comment l’algorithme a pris la décision.

L’équipe de Durresi essaie de trouver la zone Goldilocks de convivialité et de fiabilité pour les systèmes d’IA. “Vous ne pouvez pas embrasser quelque chose ou faire confiance à quelque chose si vous ne le comprenez pas.”

Durresi a décrit l’IA comme essentiellement un enfant qui a besoin de supervision ou ce qu’il appelle “des humains dans la boucle”.

“Dans un futur lointain, l’IA devient vraiment adulte et alors, au lieu de la considérer comme un simple outil, comme aujourd’hui, nous devons la considérer comme une collègue.”

Jusque-là, nous aurons des formes enfantines d’IA, qui incluent ChatGPT, un prototype lancé le 30 novembre.

“Vous vous connectez, vous lui posez une question, il crache de l’écriture”, a déclaré Bradley Dilger, professeur qui enseigne l’écriture à Purdue et directeur du programme d’introduction à la composition.

Il dit que Chat GPT est un chatbot IA qui est vraiment bon pour produire une écriture de base lorsque vous le demandez. Cependant, ce n’est pas encore assez bon pour produire des articles sur des sujets très spécifiques et obscurs.

ChatGPT n’est pas le seul chatbot IA.

En moins de 5 minutes, Dilger a utilisé un autre système pour créer une lettre de motivation pour un emploi. “Ce qui va se passer, c’est que s’il est vraiment facile de générer une lettre de motivation, la valeur d’une lettre de motivation diminuera et il y aura d’autres moyens de mesurer le potentiel d’emploi des personnes.”

Dilger a déclaré que les professeurs réfléchissaient déjà à des moyens d’empêcher les étudiants de tricher en utilisant l’IA et les chatbots, mais le problème de la triche n’est pas nouveau dans l’enseignement.

« Il est très difficile d’empêcher quelqu’un de payer 100 $ à une entreprise pour qu’il rédige un article pour lui. Nous savons que cela arrive. Nous essayons de faire des choses pour rendre cela moins probable, comme demander aux étudiants de remettre des brouillons. Demander aux étudiants de choisir des sujets et des sujets, ce n’est pas générique, vous savez, c’est très spécifique et ensuite de travailler avec du matériel qui les intéresse », a déclaré Dilger.

Tous les chercheurs qui ont parlé avec I-Team 8 étaient optimistes quant à l’avenir de l’IA, mais ils ont admis que cela pourrait être dangereux si les créateurs de la technologie ne le font pas correctement.

Durresi a déclaré: «Le pire des cas, à mon avis, c’est si cela est mal utilisé. Comme toute autre chose, la technologie en général est neutre. Vous pouvez utiliser une arme pour le bien ou pour le mal, c’est donc le pire scénario, que quelqu’un l’utilise pour de mauvais objectifs.

Mukopadhyay a ajouté: “Comme un enfant, si vous nourrissez un enfant avec beaucoup de visions biaisées du monde, l’enfant grandira pour être biaisé.”

Le prévôt de Purdue a déclaré à I-Team 8 que l’université a créé de nouvelles majeures en informatique et en philosophie afin que ses étudiants puissent aider à créer l’avenir de l’intelligence artificielle intelligente et moralement saine.

Leave a Comment