Des experts mettent en garde contre le remplissage cauchemardesque d’Internet avec une propagande infinie générée par l’IA

Comme l’IA générative a a explosé dans le courant dominantà la fois l’excitation et préoccupation avoir rapidement emboîté le pas. Et malheureusement, selon un collaboratif nouvelle étude des scientifiques de Stanford, Georgetown et OpenAI, l’une de ces préoccupations – que les outils d’IA générateurs de langage comme ChatGPT pourraient se transformer en moteurs chaotiques de désinformation de masse – n’est pas seulement possible, mais imminente.

“Ces modèles de langage promettent d’automatiser la création de textes convaincants et trompeurs à utiliser dans des opérations d’influence, plutôt que de devoir compter sur le travail humain”, écrivent les chercheurs. “Pour la société, ces développements apportent un nouvel ensemble de préoccupations : la perspective de campagnes hautement évolutives – et peut-être même très persuasives – par ceux qui cherchent à influencer secrètement l’opinion publique.”

“Nous avons analysé l’impact potentiel des modèles de langage génératif sur trois dimensions bien connues des opérations d’influence – les acteurs menant les campagnes, les comportements trompeurs utilisés comme tactiques et le contenu lui-même”, ont-ils ajouté, “et concluons que les modèles de langage pourraient considérablement affecteront la manière dont les opérations d’influence seront menées à l’avenir.”

En d’autres termes, les experts ont découvert que les IA de modélisation du langage rendront sans aucun doute plus facile et plus efficace que jamais la génération d’énormes quantités de désinformation, transformant ainsi Internet en un paysage infernal post-vérité. Et les utilisateurs, les entreprises et les gouvernements doivent se préparer à l’impact.

Bien sûr, ce ne serait pas la première fois qu’une technologie nouvelle et largement adoptée jette une clé chaotique et chargée de désinformation dans la politique mondiale. Le cycle électoral de 2016 a été l’un de ces calculs, alors que les robots russes ont fait un vaillant effort pour diffuser des contenus qui divisent, souvent faux ou trompeurs afin de perturber une campagne politique américaine.

Mais alors que le efficacité réelle de ces campagnes de bots ont été débattues dans les années qui ont suivi, cette technologie est archaïque par rapport à ChatGPT. Bien qu’elle soit encore imparfaite – l’écriture a tendance à être bonne mais pas excellente, et les informations qu’elle fournit sont souvent très mal – ChatGPT est toujours remarquablement efficace pour générer un contenu suffisamment convaincant et confiant. Et il peut produire ce contenu à une échelle étonnante, éliminant presque tout le besoin d’efforts humains chronophages et coûteux.

Ainsi, avec l’incorporation de systèmes de modélisation du langage, la désinformation est peu coûteuse à maintenir en permanence, ce qui la rend susceptible de faire beaucoup plus de mal, beaucoup plus rapidement et de manière plus fiable.

“Le potentiel des modèles linguistiques pour rivaliser avec le contenu écrit par l’homme à faible coût suggère que ces modèles – comme toute technologie puissante – peuvent offrir des avantages distincts aux propagandistes qui choisissent de les utiliser”, lit l’étude. “Ces avantages pourraient élargir l’accès à un plus grand nombre d’acteurs, permettre de nouvelles tactiques d’influence et rendre le message d’une campagne beaucoup plus personnalisé et potentiellement efficace.”

Les chercheurs notent que parce que l’IA et la désinformation évoluent si rapidement, leurs recherches sont “intrinsèquement spéculatives”. Pourtant, c’est une sombre image du prochain chapitre d’Internet.

Cela dit, le rapport n’était pas tout à fait pessimiste (bien qu’il y ait certainement beaucoup des deux impliqués). Les experts décrivent également quelques moyens de contrer, espérons-le, la nouvelle aube de la désinformation basée sur l’IA. Et bien que ceux-ci aussi soient imparfaits, et dans certains cas peut-être même impossibles, ils ne sont encore qu’un début.

Les entreprises d’IA, par exemple, pourraient suivre des politiques de développement plus strictes, leurs produits étant idéalement protégés contre l’atteinte du marché jusqu’à ce que des garde-corps éprouvés comme des filigranes soient installés dans la technologie ; pendant ce temps, les éducateurs pourraient travailler à promouvoir l’éducation aux médias dans la salle de classe, un programme qui, espérons-le, se développera pour inclure la compréhension des indices subtils qui pourraient révéler quelque chose comme étant fabriqué par l’IA.

Les plates-formes de distribution, ailleurs, pourraient travailler pour développer une fonctionnalité de “preuve de personnalité” qui va un peu plus en profondeur qu’un CAPTCHA “cochez cette case s’il y a un âne qui mange de la glace”. Dans le même temps, ces plates-formes pourraient travailler pour développer un département spécialisé dans l’identification et la suppression de tous les acteurs malveillants employant l’IA de leurs sites respectifs. Et dans un virage légèrement Far West, les chercheurs suggèrent même d’employer des “données radioactives”, une mesure compliquée qui impliquerait de former des machines sur des ensembles de données traçables. (Comme cela va probablement sans dire, ce “plan nuke-the-web”, comme Casey Newton de Plateforme Mets-leest extrêmement risqué.)

Il y aurait des courbes d’apprentissage et des risques pour chacune de ces solutions proposées, et aucune ne peut pleinement lutter seule contre l’utilisation abusive de l’IA. Mais nous devons commencer quelque part, d’autant plus que les programmes d’IA semblent avoir un une longueur d’avance assez sérieuse.

LIRE LA SUITE: Comment les « données radioactives » pourraient aider à révéler des IA malveillantes [Platformer]

Leave a Comment