ChatGPT a utilisé de la main-d’œuvre étrangère exploitée pour modérer sa bibliothèque de langues, selon une enquête

Chatbot OpenAI populaire et étrangement humain ChatGPT a été construit sur le dos d’employés sous-payés et psychologiquement exploités, selon une nouvelle enquête de TEMPS.

Une équipe d’étiquetage des données basée au Kenya, gérée par une société de San Francisco Le mêmeaurait non seulement été payé des salaires scandaleusement bas en travaillant pour une entreprise qui pourrait être sur la bonne voie pour recevoir un investissement de 10 milliards de dollars de Microsoftmais a également été soumis à un contenu sexuel graphiquement dérangeant afin de nettoyer ChatGPT des discours de haine dangereux et de la violence.

À partir de novembre 2021, OpenAI a envoyé des dizaines de milliers d’échantillons de texte aux employés, qui ont été chargés de passer au peigne fin les passages à la recherche d’exemples d’abus sexuels sur des enfants, de bestialité, de meurtre, de suicide, de torture, d’automutilation et d’inceste, TEMPS signalé. Les membres de l’équipe ont dit avoir à lire des centaines de ces types d’entrées par jour ; pour des salaires horaires allant de 1 $ à 2 $ de l’heure, soit un salaire mensuel de 170 $, certains employés estimaient que leur travail était « mentalement cicatrisant » et une certaine forme de « torture ».

Les employés de Sama se seraient vu proposer des séances de bien-être avec des conseillers, ainsi qu’une thérapie individuelle et de groupe, mais plusieurs employés interrogés ont déclaré que la réalité des soins de santé mentale dans l’entreprise était décevante et inaccessible. L’entreprise a répondu qu’elle prenait au sérieux la santé mentale de ses employés.

Les TEMPS L’enquête a également révélé que le même groupe d’employés s’était vu confier un travail supplémentaire pour compiler et étiqueter un immense ensemble d’images graphiques – et ce qui semblait de plus en plus illégal – d’images pour un projet OpenAI non divulgué. Sama a mis fin à son contrat avec OpenAI en février 2022. En décembre, ChatGPT balayerait Internet et prendrait le contrôle des salles de chat alors que la prochaine vague d’intelligence artificielle innovante parlerait.

Au moment de son lancement, ChatGPT était connu pour avoir un système d’évitement étonnamment complet en placece qui a largement empêché les utilisateurs d’inciter l’IA à dire des phrases racistes, violentes ou inappropriées. Il a également signalé le texte qu’il jugeait sectaire dans le chat lui-même, le rendant rouge et fournissant un avertissement à l’utilisateur.

La complexité éthique de l’IA

Bien que les nouvelles de la main-d’œuvre cachée d’OpenAI soient déconcertantes, ce n’est pas tout à fait surprenant car l’éthique de la modération de contenu basée sur l’homme n’est pas un nouveau débat, en particulier dans les espaces de médias sociaux jouant avec les frontières entre la publication gratuite et la protection de ses bases d’utilisateurs. En 2021, le New York Times rapporté sur L’externalisation par Facebook de la modération des publications à une société de comptabilité et d’étiquetage connue sous le nom d’Accenture. Les deux sociétés ont sous-traité la modération à des populations d’employés du monde entier et devaient plus tard faire face à une retombée massive d’une main-d’œuvre psychologiquement non préparée au travail. Facebook a versé un règlement de 52 millions de dollars aux travailleurs traumatisés en 2020.

La modération de contenu est même devenue le sujet de l’horreur psychologique et des médias technologiques post-apocalyptiques, comme le thriller 2022 de l’auteure néerlandaise Hanna Bervoets. Nous avons dû supprimer ce messagequi raconte l’effondrement mental et les troubles juridiques d’un agent d’assurance qualité de l’entreprise. Pour ces personnages et les vraies personnes derrière le travail, les perversions d’un avenir basé sur la technologie et Internet sont un traumatisme durable.

La prise de contrôle rapide de ChatGPT, et la vague successive de générateurs d’art IA, posent plusieurs questions à un grand public de plus en plus disposé à céder ses données, interactions sociales et amoureuseset même de la création culturelle à la tech. Pouvons-nous compter sur l’intelligence artificielle pour fournir des informations et des services réels ? Quelles sont les implications académiques de l’IA textuelle qui peut répondre aux commentaires en temps réel ? Est-il contraire à l’éthique d’utiliser le travail d’artistes pour créer un nouvel art dans le monde informatique ?

Les réponses à ces questions sont à la fois évidentes et moralement complexes. Les chats ne sont pas référentiels de connaissances précises ou des idées originales, mais elles offrent un exercice socratique intéressant. Ils élargissent rapidement les possibilités de plagiat, mais de nombreux universitaires sont intrigués par leur potentiel en tant qu’outils d’incitation à la créativité. L’exploitation de les artistes et leur propriété intellectuelle est un problème croissantmais peut-elle être contournée pour l’instant, au nom de la soi-disant innovation ? Comment les créateurs peuvent-ils intégrer la sécurité dans ces avancées technologiques sans risquer la santé de vraies personnes dans les coulisses ?

Une chose est claire : l’essor rapide de l’IA en tant que prochaine frontière technologique continue de poser de nouveaux dilemmes éthiques sur la création et l’application d’outils reproduisant l’interaction humaine à un coût humain réel.

Si vous avez été victime d’abus sexuels, appelez la ligne d’assistance téléphonique nationale gratuite et confidentielle sur les agressions sexuelles au 1-800-656-HOPE (4673), ou accédez à l’aide en ligne 24 heures sur 24 et 7 jours sur 7 en visitant online.rainn.org.

Leave a Comment