Les commerçants ne peuvent pas prédire le marché. Peut-être que leurs visages le peuvent.

Commenter

Le dicton dit que nos yeux sont la fenêtre de l’âme. Peut-être qu’avec le temps, ils serviront un objectif moins romantique, comme des fenêtres pour gagner de l’argent.

Des chercheurs de l’Université Carnegie Mellon de Pittsburgh, l’une des principales institutions de recherche sur l’intelligence artificielle, ont lancé une étude utilisant des algorithmes de reconnaissance faciale pour suivre les expressions des commerçants. Leur objectif : trouver des corrélations entre les sautes d’humeur et les fluctuations du marché. Si les commerçants ont l’air enthousiastes, il est peut-être temps d’acheter. Y a-t-il plus de sourcils froncés que d’habitude ? Il est peut-être temps de vendre. La demande de brevet américain provisoire a été déposée le 13 septembre 2022.

« Le marché est guidé par les émotions humaines », explique Mario Savvides, scientifique principal du projet. “Ce qui nous est venu, c’est : pouvons-nous faire abstraction de choses comme l’expression ou les mouvements comme premiers signes de volatilité ? Tout le monde s’excite, ou tout le monde hausse les épaules, se gratte la tête ou se penche en avant… Est-ce que tout le monde a eu une réaction dans un délai de cinq secondes ? »

La phase principale de l’étude se déroulera sur 12 mois à compter du troisième trimestre 2023 et impliquera environ 70 traders d’entreprises d’investissement principalement situées aux États-Unis. Ils auront tous des caméras montées sur leurs ordinateurs pour enregistrer leurs visages et leurs gestes tout au long de la journée, selon Savvides. Les caméras seront liées au logiciel d’Oosto, une société israélienne anciennement connue sous le nom d’AnyVision Interactive Technologies Ltd., qui espère développer un système d’alerte pour les tendances des visages des commerçants, ou un indice de volatilité qu’il pourra vendre aux entreprises d’investissement.

Oosto, qui fabrique des scanners de reconnaissance faciale pour les aéroports et les lieux de travail, a refusé de nommer les entreprises participant à l’étude, mais a déclaré que ces entreprises auraient un accès rapide à tout nouvel outil issu de la recherche. Les images de chaque individu resteront sur leur propre ordinateur ou dans leurs locaux physiques ; seuls les données et les nombres représentant leurs expressions et gestes seront téléchargés vers les chercheurs.

Le visage d’une personne est composé de 68 points différents qui changent fréquemment de position, selon Savvides, co-auteur d’une étude sur les “points de repère” du visage en 2017.

Son système suivra également le regard d’un commerçant pour voir s’il parle à un collègue ou regarde son écran, et notera si ses pairs font la même chose. “Nous avons toute une boîte à outils d’algorithmes de recherche que nous allons tester pour voir s’ils sont corrélés à un signal de marché”, a déclaré Savvides. “Nous cherchons des aiguilles dans une botte de foin.”

Les annonceurs utilisent déjà l’analyse faciale pour étudier à quel point une annonce est excitante, tandis que les détaillants l’utilisent pour voir à quel point les clients s’ennuient et les responsables du recrutement pour déterminer, plutôt effrayant, si un candidat est suffisamment enthousiaste.

L’étude boursière semble à première vue plus dystopique. Les algorithmes de trading ont essayé pendant des années d’exploiter les informations de la météo, des médias sociaux ou des satellites, mais il y a quelque chose d’un peu dégradant dans le fait que les traders eux-mêmes sont exploités pour les données. Les chercheurs placent également les commerçants dans une boucle de rétroaction sans fin où leurs actions et leurs décisions deviennent dérivées et leur comportement notoirement semblable à celui des lemmings s’amplifie. Si vous pensiez que le marché était déjà animé par une mentalité de troupeau, cela aggravera probablement les choses, mais c’est aussi ainsi que fonctionne le marché.

“Tout le monde dans la rue parle”, déclare un commerçant à Londres (ne faisant pas partie de l’étude) qui a déclaré qu’il trouverait utiles de telles alertes sur le sentiment de ses pairs. “Tout ce que nous faisons, c’est discuter d’idées et partager des informations… La communication non verbale est massive.” Il y a des années, les parquets étaient des endroits bruyants où les gens parlaient souvent sur trois ou quatre lignes téléphoniques en même temps ; maintenant, beaucoup communiquent sur des forums de discussion et les conversations sont minimes.

Mais l’étude souligne également un autre phénomène inconfortable : la reconnaissance faciale est là pour rester et son cousin plus controversé, l’analyse faciale, pourrait l’être aussi. Malgré toutes les inquiétudes suscitées par la reconnaissance faciale, y compris les erreurs qu’elle peut commettre en tant qu’outil de surveillance, des dizaines de millions d’entre nous l’utilisent toujours sans hésitation pour déverrouiller nos téléphones.

L’analyse faciale comme celle utilisée par Carnegie Mellon ouvre une plus grande boîte de Pandore. L’été dernier, Microsoft Corp. s’est engagé à éliminer ses outils d’analyse faciale, qui estimaient l’âge et l’état émotionnel d’une personne, admettant que le système pouvait être peu fiable et invasif(1). toutes les données qu’ils peuvent pour un bord. Mais cette étude – si elle réussit – pourrait encourager la recherche sur l’analyse des visages à d’autres fins, comme évaluer son état émotionnel lors d’une réunion de travail.

“Si vous concluez un accord commercial sur Zoom, pouvez-vous demander à une IA de lire le visage pour savoir si quelqu’un vous traite de bluff ou est un négociateur acharné ?” demande Savvides. “C’est possible. Pourquoi pas?”

Zoom Video Communications Inc. a introduit l’année dernière une fonctionnalité qui suit le sentiment lors d’une réunion de travail enregistrée. Appelé Zoom IQ, le logiciel destiné aux professionnels de la vente attribue aux participants à la réunion un score compris entre 0 et 100, tout dépassement de 50 indiquant un plus grand engagement dans la conversation. Le système n’utilise pas l’analyse faciale mais suit l’engagement des orateurs, ou combien de temps on attend pour répondre, et offre son score à la fin de la réunion.

Plus de deux douzaines de groupes de défense des droits ont appelé Zoom à cesser de travailler sur la fonctionnalité, arguant que l’analyse des sentiments est étayée par la pseudoscience et est “intrinsèquement biaisée”. Un porte-parole de Zoom a déclaré que la société vend toujours le logiciel et qu’il “transforme les interactions avec les clients en informations significatives”.

Vous pouvez affirmer que les chercheurs de Carnegie ne devraient pas se soucier de ce que leur outil d’analyse faciale leur dit sur les émotions des commerçants ; ils ont juste besoin de repérer les modèles qui indiquent des corrélations et de faire pivoter ces chiffres dans un algorithme de recherche. Mais l’inconvénient de transformer les émotions en nombre n’est que cela : cela risque de dévaloriser l’une des caractéristiques les plus fondamentales de l’être humain. C’est peut-être mieux si ça ne s’accroche pas.

Plus de Bloomberg Opinion:

• Pourquoi les casinos espionnent leurs clients ultra-riches : Parmy Olson

• Soyez prudent, voici les prévisions pour 2023 : John Authers

• Le futur adversaire le plus puissant de Magnus Carlsen est l’IA : Tyler Cowen

(1) Amazon continue de vendre un logiciel d’analyse faciale qui estime le sexe d’une personne et devine également si elle est heureuse, confuse, dégoûtée ou plus.

Cette colonne ne reflète pas nécessairement l’opinion du comité de rédaction ou de Bloomberg LP et de ses propriétaires.

Parmy Olson est une chroniqueuse de Bloomberg Opinion couvrant la technologie. Ancienne journaliste du Wall Street Journal et de Forbes, elle est l’auteur de “We Are Anonymous”.

Plus d’histoires comme celle-ci sont disponibles sur bloomberg.com/opinion

Leave a Comment