L’IA améliore l’empathie des supporters en santé mentale

L’intelligence artificielle est déjà faire des vagues en médecinetrouver des applications cliniques potentielles et aider à mieux aider les patients et il fait maintenant également son chemin dans mental domaines de la santé.

HAILEY, une interface de chat basée sur l’IA, s’avère prometteuse en tant qu’outil pour aider les pairs aidants en santé mentale à interagir avec les personnes à la recherche d’un soutien en ligne.

Une étude des performances de HAILEY est publié dans la revue Intelligence des machines naturelles.

Les problèmes de santé mentale sont monnaie courante dans la population. Selon une enquête réalisée en 2021 par l’Institut australien de la santé et du bien-être du gouvernement fédéral, on estime que plus de deux Australiens sur cinq (44%) ont souffert d’un trouble mental au cours de leur vie. Au cours des 12 mois qui ont précédé l’enquête, environ 21 % des Australiens – 4,2 millions de personnes – ont souffert d’un trouble mental.

Pour ces personnes, les troubles anxieux sont les plus répandus, suivis des troubles affectifs et de la toxicomanie.

Dans de nombreux cas, l’aide à long terme est difficile en raison du coût et des répercussions du trouble lui-même. Souvent, l’accès à la thérapie et aux conseils est limité.


Lire la suite: Un nouvel outil d’IA pourrait aider au diagnostic des maladies rares et à la prédiction du traitement


Les plates-formes peer-to-peer dans les plates-formes non cliniques peuvent offrir certains soins et se sont avérées fortement liées à l’amélioration des symptômes de santé mentale. En particulier, leur accessibilité fait des services de soutien en ligne pour la santé mentale une partie intégrante de l’aide aux personnes atteintes d’un problème de santé mentale, avec le potentiel de changer la vie ou même de sauver des vies. Des études psychologiques montrent que, dans ces contextes, l’empathie est essentielle.

Tim Althoff, professeur adjoint en informatique et ses collègues de l’Université de Washington, ont conçu HAILEY pour aider à l’empathie conversationnelle entre les travailleurs de soutien et les demandeurs de soutien.

L’interface de chat utilise un modèle de langage développé précédemment spécialement formé pour l’écriture empathique.

Pour tester HAILEY, l’équipe a recruté 300 partisans de la santé mentale de la plateforme peer-to-peer TalkLife pour participer à un essai contrôlé. Les participants ont été divisés en deux groupes, l’un avec l’aide de HAILEY. Les travailleurs de soutien ont répondu aux messages du monde réel filtrés pour éviter les contenus préjudiciables.

Pour l’un des groupes, HAILEY a fourni des suggestions de phrases à remplacer ou à insérer. Les travailleurs de soutien pourraient alors choisir d’ignorer ou d’adopter les suggestions de HAILEY. Par exemple, HAILEY a suggéré de remplacer la phrase “Ne vous inquiétez pas” par “Ce doit être un vrai combat”.

Les auteurs ont constaté qu’une approche collaborative entre les travailleurs de soutien humain et l’IA entraînait une augmentation de 19,6 % de l’empathie dans la conversation. Cela a été évalué par un modèle d’IA précédemment validé.

L’augmentation de l’empathie conversationnelle était beaucoup plus élevée, 38,9 %, chez les pairs aidants qui, selon les auteurs, « s’identifient comme ayant des difficultés à apporter leur soutien ».

Leur analyse montre que «les pairs aidants sont capables d’utiliser les commentaires de l’IA à la fois directement et indirectement sans devenir trop dépendants de l’IA, tout en signalant une amélioration de l’auto-efficacité après les commentaires. Nos résultats démontrent le potentiel des systèmes d’écriture basés sur la rétroaction et l’IA dans la boucle pour autonomiser les humains dans des tâches ouvertes, sociales et à enjeux élevés telles que les conversations empathiques.


Lire la suite: ChatGPT fait des vagues, mais que signifient les outils de chat IA pour l’avenir de l’écriture ?


Cependant, les auteurs notent que des recherches supplémentaires sont nécessaires pour garantir la sécurité de ces outils d’IA “dans des contextes à enjeux élevés tels que les soins de santé mentale” en raison de considérations relatives à “la sécurité, la confidentialité et les préjugés”.

“Il y a un risque qu’en tentant d’aider, l’IA ait l’effet inverse sur le demandeur d’aide ou le pair aidant potentiellement vulnérable. La présente étude comprenait plusieurs mesures visant à réduire les risques et les conséquences imprévues. Tout d’abord, notre approche d’écriture collaborative basée sur l’IA dans la boucle a garanti que la conversation principale reste entre deux humains, l’IA n’offrant un retour que lorsqu’il semble utile et permettant au supporteur humain de l’accepter ou de le rejeter. Fournir une telle agence humaine est plus sûr que de compter uniquement sur l’IA.



Leave a Comment