Pourquoi le gouvernement devrait réglementer l’IA comme nous le faisons pour les drogues et les armes à feu

Que cela vous plaise ou non, une IA vous a probablement amené ici.

Vous avez peut-être trouvé cet article sur votre flux Facebook ou êtes tombé dessus dans Google Actualités. Un ami d’un ami d’un ami pourrait l’avoir posté sur Twitter que vous avez vu dans un retweet. Peu importe comment vous êtes arrivé ici, cet article a été organisé de manière unique et vous a été livré directement sur un plateau numérique.

Remarquez que l’IA n’a pas fait cela par hasard. Il l’a fait parce qu’il sait tu. En fait, il vous surveille depuis des années, surveillant chaque site Web que vous visitez, chaque recherche sur Google, chaque achat sur Amazon, chaque clic et chaque frappe qui composent les pages de votre histoire numérique. À bien des égards, les algorithmes en savent probablement plus sur vous que vous.

Cela semble effrayant, non ? Et pourtant, c’est la réalité de notre vie quotidienne en ligne et hors ligne. L’IA est constamment utilisée pour automatiser et rationaliser les tâches afin de nous faciliter la tâche, mais cela a un coût. Au mieux, les IA peuvent nous aider à faire des choses comme trouver un nouvel emploi en ligne ou trouver l’itinéraire le plus direct pour une livraison de médicaments. Au pire, il peut projeter certains des pires préjugés de la société menant à des choses comme refuser les prêts immobiliers aux personnes de couleur ou jaillissant des déclarations carrément racistes et sectaires.

Bien que la technologie de l’IA ait parcouru un long chemin, nous sommes toujours dans le Far West sauvage. À l’heure actuelle, il peut être si facilement transformé en arme et exploité par de mauvais acteurs tout faire de la reconnaissance faciale à plonger les gens dans des vidéos et des images compromettantes– et il y a terriblement peu de réglementation pour empêcher que cela se produise.

Cela ne veut pas dire que les législateurs font rien à propos de ça. En fait, certains pays commencent à envisager d’examiner de plus près la réglementation de ces algorithmes, à des degrés très variables.

En octobre, la Maison Blanche a dévoilé un projet de Charte des droits de l’IA. Le cadre a fourni des principes sur la façon dont les algorithmes d’apprentissage automatique pourraient être utilisés et accessibles, tout en essayant ostensiblement de protéger les données et la vie privée des Américains.

“En Amérique et dans le monde, les systèmes censés aider aux soins aux patients se sont révélés dangereux, inefficaces ou biaisés”, a écrit la Maison Blanche sur le site. Page Web sur la déclaration des droits de l’IA. «Il a été constaté que les algorithmes utilisés dans les décisions d’embauche et de crédit reflètent et reproduisent les inégalités indésirables existantes ou intègrent de nouveaux préjugés et discriminations préjudiciables. La collecte non contrôlée de données sur les réseaux sociaux a été utilisée pour menacer les opportunités des personnes, porter atteinte à leur vie privée ou suivre de manière omniprésente leur activité, souvent à leur insu ou sans leur consentement.

Je pense que le défi avec la réglementation des nouvelles technologies est de savoir si les gouvernements agissent trop rapidement ou n’agissent pas assez rapidement.

Sarah Kreps, Université Cornell

Entre-temps, l’Union européenne a proposé la Loi sur l’IA en 2021. Bien qu’elle n’ait pas encore été promulguée, la loi exigerait que des éléments tels que les chatbots automatisés soient clairement étiquetés et interdirait purement et simplement l’IA qu’ils considèrent comme un « risque inacceptable » comme le système de crédit social de la Chine, ce qui est ironique compte tenu le fait que Pékin est en tête du peloton en matière de réglementation de l’IA.

La Chine a récemment annoncé une nouvelle loi qui nécessite que les médias générés par l’IA soient clairement marqués en tant que tel, déclarant que “les services qui fournissent des fonctions telles que le dialogue intelligent, la voix humaine synthétisée, la génération de visage humain et des scènes réalistes immersives qui génèrent ou modifient de manière significative le contenu de l’information, doivent être marqués de manière proéminente pour éviter la confusion du public”.

Cela s’appuie sur les récents Réglementation de l’IA depuis Pékin qui exigeait que tous les algorithmes soient enregistrés dans un registre et punit également les algorithmes qui propagent la désinformation. Cela ne devrait pas surprendre compte tenu du gouvernement autoritaire de la Chine, mais offre un aperçu d’une voie potentielle que les États-Unis pourraient suivre si et quand ils décident d’une réglementation plus stricte de l’IA.

Les mesures agressives de la Chine pour freiner l’IA soulèvent la question de savoir si les États-Unis devraient également faire davantage pour réglementer les algorithmes d’apprentissage automatique. Et si tel est le cas, cela pourrait-il nécessiter la création d’une agence entièrement distincte dédiée à ces efforts – une sorte de département américain de l’IA chargé de veiller à ce que l’IA soit développée et déployée de manière sûre et équitable.

Cela peut sembler extrême à première vue, mais un nouvel organe directeur chargé de réglementer et de fournir des garde-fous pour les technologies émergentes pourrait être tout à fait nécessaire, surtout compte tenu du rythme de plus en plus rapide auquel ces technologies progressent. Il y a dix ans, les chatbots étaient encore assez primitifs. Maintenant, ils sont si sophistiqués que certaines personnes prétendent même que ils ont gagné en sensibilité. Chaque année, ils vont devenir encore plus avancés, ouvrant la porte à de nombreux dommages potentiels qui pourraient être évités grâce à la réglementation.

Mais lorsqu’il s’agit de technologies émergentes, c’est beaucoup plus facile à dire qu’à faire.

“Je pense que le défi de la réglementation des nouvelles technologies est de savoir si les gouvernements agissent trop rapidement ou n’agissent pas assez rapidement”, a déclaré Sarah Kreps, directrice du Cornell Tech Policy Institute de l’Université Cornell, au Daily Beast. Elle a cité la récente débâcle de FTX comme un bon exemple de cela.

“Il est facile de conclure de l’implosion de FTX que le gouvernement aurait dû faire plus pour intervenir et réglementer le marché de la cryptographie”, a-t-elle déclaré. “Et maintenant, nous voyons, après l’implosion, que les clients ont perdu des milliards de dollars et que le gouvernement n’a pas agi assez rapidement.”

Il faut faire plus d’efforts pour comprendre à la fois comment ces technologies fonctionnent et quelles pourraient être leurs implications. Cela doit être la première étape.

Sarah Kreps, Université Cornell

C’est là que réside l’équilibre délicat en matière d’IA et un problème permanent lorsqu’il s’agit de réglementer les technologies émergentes. Quand le gouvernement devrait-il agir et à quoi devrait ressembler ce règlement?

La déclaration des droits de l’IA offre un aperçu et comprend des principes qui protégeraient les personnes contre la discrimination par un algorithme. Par exemple, une IA utilisée pour trier les CV et les CV pour une offre d’emploi devrait être certifiée pour être impartiale par rapport aux candidatures de personnes de couleur…c’est quelque chose qui s’est passé avant. Bien que ce soit une bonne chose, le problème est que l’IA nouvelle et émergente va rapidement au-delà de ces cas d’utilisation spécifiés.

“Mon inquiétude est que nous commençons maintenant à voir des systèmes d’IA plus généraux qui pourraient être utilisés dans différents secteurs”, a déclaré Baobao Zhang, chercheur en politique technologique au Center for the Governance of AI, au Daily Beast. “ChatGPT en est un bon exemple. Les étudiants peuvent utiliser ce logiciel pour écrire des essais. C’est une utilisation dans le contexte éducatif. Mais cela pourrait avoir un impact sur le journalisme. Quiconque le souhaite peut créer des reportages, qu’ils soient vrais ou fictifs. Il pourrait être utilisé dans la recherche universitaire. Il pourrait être utilisé dans d’autres contextes inattendus.

Ensuite, il y a de puissants générateurs de texte en image tels que Lensa et L’image de Google ou même Le générateur de texte en vidéo de Meta. Ces IA ont des applications potentielles illimitées dans pratiquement n’importe quelle industrie ou secteur, et donc un énorme potentiel de préjudice. Et pourtant, c’est un angle mort massif dans la Déclaration des droits de l’IA, qui ne parvient pas à y remédier.

“C’est un domaine qui m’inquiète particulièrement”, ajoute Zhang. “Alors que le gouvernement envisage de réglementer l’IA, il doit non seulement réfléchir aux utilisations spécifiques au secteur et aux dommages qui peuvent survenir, mais anticiper des systèmes d’IA plus puissants applicables à plusieurs secteurs.”

Mais il est difficile d’anticiper les problèmes des nouvelles technologies, surtout lorsque les législateurs ne sont pas exactement les plus versés en matière de technologie. Alors peut-être que la chose la plus percutante que les régulateurs puissent faire pour résoudre ces problèmes est simplement l’éducation. Après tout, ils ne savent pas ce qu’ils ne savent pas. Si les législateurs étaient plus conscients des dangers et des pièges de l’IA, ainsi que de son potentiel bénéfique, ils pourraient proposer une réglementation plus appropriée.

“Les responsables gouvernementaux ont tendance à ne pas très bien comprendre ces technologies, et je pense que c’est compréhensible car ils ont beaucoup à faire”, a déclaré Kreps. “Je pense donc qu’il faut au moins faire plus d’efforts pour comprendre à la fois comment ces technologies fonctionnent et quelles pourraient être leurs implications. Cela doit être la première étape. À partir de là, ils peuvent décider de la meilleure façon de prendre ces décisions réglementaires. »

La réalité est que la réglementation de l’IA va se produire, que cela nous plaise ou non.

Kreps ne croit pas nécessairement qu’il doit y avoir un département américain de l’IA ou une réglementation stricte. Cependant, elle est favorable à des “touches réglementaires légères” lorsqu’il s’agit de ces technologies émergentes.

La réalité est que la réglementation de l’IA va se produire, que cela nous plaise ou non. Kreps et Zhang ont tous deux déclaré qu’ils pensaient que les États-Unis finiraient par adopter une sorte de cadre réglementaire – la seule question est de savoir quand cela se produira et dans quelle mesure le gouvernement jouera. Bien sûr, les organes directeurs ne devraient pas limiter le développement de ces systèmes au point d’empêcher l’innovation, mais encore une fois, que se passe-t-il s’ils n’en font pas assez ?

“La première étape consiste au moins à reconnaître et à essayer de cerner le problème. Je ne pense même pas que nous ayons atteint ce stade », a déclaré Kreps. « Essayons d’abord de comprendre ce que nous regardons, puis nous pourrons partir de là. Mais nous ne faisons même pas ce premier pas.

Leave a Comment