Les smartphones et les nombreuses technologies qui les rendent toujours plus intelligents ont eu un impact considérable sur la façon dont nous communiquons, nous organisons et nous mobilisons. Si vous avez déjà dirigé, assisté ou même envisagé de participer à une manifestation, vous avez peut-être trouvé les informations dont vous aviez besoin grâce à des appareils intelligents comme votre téléphone ou votre montre, mais il est également possible qu’on vous ait conseillé de les laisser à la maison pour éviter d’être repéré.
Les smartphones ont contribué à permettre l’accès aux informations et aux ressources pédagogiques grâce à l’accès à l’apprentissage et aux outils en ligne, en particulier lorsque l’apprentissage en personne/physique n’est pas possible ou facilement accessible. Les téléphones portables et Internet sont devenus un élément important de la jouissance de certains droits et libertés, tels que la liberté d’expression, la liberté d’expression et le droit de manifester.
Cependant, des technologies telles que la reconnaissance faciale et la géolocalisation, qui vous permettent d’utiliser votre téléphone portable et certaines de ses applications, sont également utilisées en dehors de vos appareils mobiles et peuvent être utilisées par des systèmes tels que les caméras de circulation et de sécurité, par des entités publiques et privées à la recherche pour les données. Cela a été démontré à Hong Kong, où il a été rapporté que les autorités utilisaient les données recueillies par les caméras de sécurité et les médias sociaux pour identifier les personnes qui avaient participé aux manifestations.
Compte tenu de l’utilisation et des capacités accrues de l’intelligence artificielle (IA), il existe une nouvelle demande de recherche sur l’impact de ces technologies sur l’espace civique et les droits civils, et tout ce qui se trouve entre les deux.
Le Dr Mona Sloane est chercheuse principale au Center for Responsible AI de l’Université de New York. Elle est une sociologue qui étudie l’intersection de la conception, de la technologie et de la société, en particulier dans le contexte de la conception et de la politique de l’IA. Sloane explique que la plupart des systèmes d’IA sont créés pour rendre les processus de prise de décision beaucoup plus faciles et plus rapides dans la vie de tous les jours, mais les données derrière cette création sont erronées.
“Les entités qui développent et déploient l’IA ont souvent intérêt à ne pas divulguer les hypothèses qui sous-tendent un modèle, ainsi que les données sur lesquelles il a été construit et le code qui l’incarne”, a déclaré Sloane à Global Citizen. “Les systèmes d’IA ont généralement besoin de grandes quantités de données pour fonctionner assez bien. Les processus de collecte de données extractives peuvent envahir la vie privée. Les données sont toujours historiques et représenteront toujours des iniquités et des inégalités historiques. Les utiliser comme base pour prendre des décisions sur ce qui devrait se passer dans le l’avenir solidifie donc ces inégalités.”
Des chercheurs comme Sloane se concentrent sur la manière dont ces technologies puissantes existent dans le monde réel et rendent pratiquement impossible la suppression des barrières systémiques.
Reconnaissance faciale dans l’espace civique
En janvier 2021, Amnesty International a lancé sa campagne mondiale Bannissez la campagne Scanqui vise à supprimer “l’utilisation des systèmes de reconnaissance faciale, une forme de surveillance de masse qui amplifie le maintien de l’ordre raciste et menace le droit de manifester”.
La campagne a souligné que les technologies algorithmiques, comme les scanners de reconnaissance faciale, “sont une forme de surveillance de masse qui violent le droit à la vie privée et menacent les droits à la liberté de réunion et d’expression pacifiques”.
En 2019, le monde a vu des manifestants à Hong Kong se couvrir le visage et lampadaires renversés avec des scanners de visage pour échapper à la détection grâce à la reconnaissance faciale, ou ont essayé de trouver des moyens d’utiliser l’IA à leur avantage.
“Un manifestant en particulier, ce type Colin Cheung que nous avons trouvé, a créé un outil de reconnaissance faciale pour essayer d’identifier la police. Et il n’a pas réellement libéré le produit, mais il dit que c’est à cause de cela que la police l’a en fait ciblé”, a-t-il ajouté. Le journaliste du New York Times, Paul Mozur, a rapporté. “Lorsqu’ils l’ont attrapé, ils avaient besoin d’accéder à son téléphone et ils ont donc essayé de forcer son visage devant son téléphone pour utiliser la fonction de reconnaissance faciale du téléphone pour le déverrouiller … [He] a pu rapidement désactiver cela alors qu’il était attaqué, mais cela vous montre comment … nos données biométriques sont devenues si essentielles à la technologie, qu’elles deviennent en quelque sorte militarisées sous toutes ces formes différentes.
Professeur adjoint au Faculté d’études de l’information et des médias à Université Western à London, Ontario, Luke Stark étudie les impacts éthiques, historiques et sociaux des technologies informatiques telles que l’IA et l’apprentissage automatique. Il utilise le terme “technologies de surveillance numérique” pour couvrir le concept de collecte de données dans les médias et s’interroge sur la manière dont ces données sont utilisées par le gouvernement – et sur ce que signifient ce suivi et cette suppression dans diverses parties du monde, avec des différences juridiques. régimes.
Il fait valoir que si cette collecte de données est excessive, il est également difficile de passer au crible, ce que le Edward Snowden fuit prouvé, selon lui.
“Les pouvoirs en place, les espions et les agences de renseignement, ainsi que les agences de sécurité ont beaucoup d’anxiété à l’idée de parcourir toutes ces données, d’avoir trop de données, de comprendre et d’interpréter ces données”, a déclaré Stark à Global Citizen.
Malheureusement, il ajoute que l’examen des données n’a pas besoin d’être parfait car il s’agit d’une “force brute” telle qu’elle est – les gens sont arrêtés ou supprimés en raison d’erreurs dans le système, mais ensuite pris par inadvertance pour autre chose que quoi le système essayait de les surprendre en train de faire.
“Je pense notamment au nombre croissant de cas aux États-Unis où des hommes noirs sont arrêtés sur la base de la prétendue identification d’un système de reconnaissance faciale”, a-t-il déclaré. “Et il s’avère que le système de reconnaissance faciale a choisi la mauvaise personne, y compris un cas où le service de police a utilisé un dessin composite d’un dessinateur dans le système, puis a trouvé quelqu’un qui ressemblait au dessin et l’a arrêté.”
Stark souligne qu’il existe à la fois des problèmes techniques avec les systèmes algorithmiques et des problèmes sociaux, qui, lorsqu’ils sont mis ensemble, “ont une énorme portée à la fois pour les abus dans les termes de la loi telle qu’elle existe, mais aussi pour les abus d’un point de vue plus démocratique des droits de l’homme”.
La technologie dans le monde de la protestation
Stark avertit que ces technologies ont un effet dissuasif sur les manifestations, compte tenu de la manière dont elles peuvent être utilisées.
“Plus ils sont intégrés, plus ils peuvent être dangereux. Ce qui ne veut pas dire qu’ils ne sont pas dangereux quand ils ne sont pas intégrés, [because they still] ont en quelque sorte la capacité de suivre les gens et de les identifier par des systèmes de reconnaissance faciale, puis de disposer de toutes sortes de données sur, par exemple, leurs mouvements. Si vous suivez des éléments tels que l’utilisation des transports en commun via des cartes à puce numériques, des données de géolocalisation via des téléphones portables, tous ces différents types de traces numériques, un État désireux et capable de rassembler toutes ces données pourra vraiment, vraiment réprimer la dissidence de manière extraordinairement efficace “, a-t-il expliqué. “Hong Kong, je pense, est un bon exemple de la façon dont en réprimant vraiment un large éventail de dirigeants de manifestations, cela pousse tout le monde à se faire vraiment discret.”
Il ajoute qu’en Amérique du Nord également, les militants déconseillent d’apporter un téléphone avec vous lorsque vous assistez à des manifestations afin que vous ne puissiez pas être suivi – mais cela signifie également perdre un moyen de documenter les événements.
La puissance qui vient avec la collecte de données
L’IA nous impacte non seulement en termes de données qu’elle est capable de collecter, mais aussi en termes de façonnage de ce que nous percevons comme étant vrai.
Les algorithmes peuvent être utilisés pour déterminer les préférences d’une personne, y compris les choix politiques, qui peuvent ensuite être utilisés pour influencer le type de messages politiques que quelqu’un pourrait voir sur ses flux de médias sociaux. Une violation notable de la collecte de données à cet égard a impliqué la société de conseil Cambridge Analytica, qui a collecté des données privées à partir des profils Facebook de plus de 50 millions d’utilisateurs dans le cadre de son travail pour la campagne de l’ancien président américain Donald Trump en 2016, selon le New York Times.
Non seulement il devient plus facile de manipuler les gens plus vous en savez sur eux, mais à mesure que les gens se rendent compte qu’ils sont surveillés, ils sont susceptibles de changer leurs comportements, selon Jamie Susskindauteur de Future Politics: Vivre ensemble dans un monde transformé par la technologie.
“Le numérique est politique. Au lieu de considérer ces technologies comme des consommateurs ou des capitalistes, nous devons les considérer comme des citoyens. Ceux qui contrôlent et possèdent les systèmes numériques les plus puissants à l’avenir auront de plus en plus un grand contrôle sur le reste de nous,” Susskind dit dans une interview avec Forbes.
Les algorithmes permettent en outre à différentes personnes d’avoir différentes perceptions de la réalité, en montrant aux gens différents types de médias qui s’alignent sur leur politique.
Pourtant, la technologie mobile a sans aucun doute contribué à ouvrir l’espace civique, dans certaines circonstances, malgré la création de nouveaux défis, notamment en ce qui concerne le suivi et la surveillance des militants et/ou des manifestants.
La capacité de ces technologies de surveillance numérique à être utilisées de manière à supprimer la dissidence et/ou à conduire au profilage de certains groupes est la raison pour laquelle des universitaires comme Sloane parlent d’IA.
“Il n’y a pas de solution miracle pour rendre l’IA plus juste, nous devons aborder ce problème sous tous ses angles. Les universitaires doivent travailler de manière plus interdisciplinaire. Les spécialistes des sciences sociales peuvent aider les ingénieurs à comprendre comment les structures sociales sont profondément liées aux technologies”, a-t-elle ajouté. m’a dit. “Les communautés concernées et le public doivent être inscrits (et indemnisés) dans le processus de conception de l’IA. Nous avons besoin de garde-fous qui soutiennent et n’entravent pas l’innovation.”
Stark est d’accord, ajoutant qu’il y a beaucoup de travail à faire sur la façon dont les technologies d’intelligence artificielle interagissent avec de vraies personnes dans le monde réel, notamment en demandant : “Comment savez-vous quelles hypothèses nous formulons ? Quelles pratiques utilisons-nous pour faire des inférences sur les personnes ? ? Quel genre d’inférence est en jeu ? Quelles histoires racontons-nous lorsque nous faisons ces inférences ?
“Ce sont depuis longtemps des préoccupations des spécialistes des sciences sociales”, a-t-il déclaré. “Et je pense, en tant qu’ensemble de technologies, [AI] met vraiment ce problème au premier plan.”
Cet article fait partie d’une série liée à la défense du plaidoyer et de l’espace civique, rendue possible grâce au financement de la Fondation Ford.