Une chaîne de six fusillades de masse en Californie en moins de deux semaines, qui a fait 30 morts et 19 blessés, a ravivé les appels aux États-Unis contre la violence armée.
Président Joe Biden plus tôt ce mois-ci poussé pour une interdiction nationale des fusils d’assaut ; tandis que les républicains, qui s’opposent à une telle mesure, sont restés largement silencieux au lendemain des attentats. En réponse à d’autres fusillades de masse, les républicains ont appelé pour l’amélioration des services de santé mentale.
L’impasse du Congrès et inefficacité apparente des lois californiennes robustes sur les armes à feu ont laissé les gens à la recherche d’alternatives. Une solution potentielle relativement nouvelle, l’utilisation de la sécurité renforcée par l’intelligence artificielle, a suscité l’intérêt pour sa promesse d’appréhender les tireurs avant qu’un coup de feu ne soit tiré.
L’industrie de la sécurité de l’IA vante des caméras qui identifient les suspects flânant à l’extérieur d’une école avec des armes, des détecteurs de métaux de haute technologie qui repèrent les armes cachées et des algorithmes prédictifs qui analysent les informations pour signaler un tireur de masse potentiel.
Les responsables de l’entreprise à l’origine du développement des caméras de sécurité renforcées par l’IA affirment que la technologie corrige les agents de sécurité faillibles, qui, selon eux, ont souvent du mal à surveiller plusieurs flux vidéo et à détecter les menaces émergentes. Au lieu de cela, disent les responsables de l’entreprise, l’IA identifie de manière fiable les assaillants alors qu’ils se préparent à une attaque, ce qui permet aux responsables de la sécurité de gagner de précieuses minutes ou secondes et peut-être de sauver des vies.
“C’est le secret le mieux gardé”, a déclaré Sam Alaimo, co-fondateur d’une société de sécurité basée sur l’intelligence artificielle appelée ZeroEyes, à ABC News. “S’il y a un fusil d’assaut à l’extérieur d’une école, les gens veulent en savoir plus. Si une vie est sauvée, c’est une victoire.”
Les critiques, cependant, remettent en question l’efficacité des produits, affirmant que les entreprises n’ont pas fourni de données vérifiées de manière indépendante sur l’exactitude. Même si l’IA fonctionne efficacement, ajoutent-ils, la technologie soulève des préoccupations majeures concernant la violation de la vie privée et la discrimination potentielle.
« Si vous envisagez d’échanger votre vie privée et votre liberté contre la sécurité, la première question que vous devez vous poser est : faites-vous une bonne affaire ? » Jay Stanley, analyste principal des politiques au projet ACLU Speech, Privacy, and Technology, a déclaré à ABC News.
Le marché de la sécurité de l’IA
Alors que les écoles, les détaillants et les bureaux envisagent d’adopter la sécurité de l’IA, l’industrie est prête pour la croissance. Le marché des produits qui détectent les armes dissimulées devrait presque doubler, passant de 630 millions de dollars en 2022 à 1,2 milliard de dollars d’ici 2031, selon le cabinet d’études Perspectives futures du marché.
Cet optimisme est dû en partie à la prévalence accrue des caméras de sécurité, permettant aux entreprises d’intelligence artificielle de vendre des logiciels qui améliorent les systèmes déjà utilisés dans de nombreux bâtiments.
Depuis l’année scolaire 2017-2018, 83 % des écoles publiques ont déclaré utiliser des caméras de sécurité, le Centre national des statistiques de l’éducation trouvé. Ce chiffre a marqué une augmentation significative par rapport à l’année scolaire 1999-2000, lorsque seulement 19% des écoles étaient équipées de caméras de sécurité, selon l’enquête de l’organisation.
“Nous travaillons avec un système de surveillance existant”, a déclaré Kris Greiner, vice-président des ventes de la société de sécurité AI Scylla, à ABC News. “Nous lui donnons juste un cerveau.”
Entreprises travaillant sur la sécurité de l’IA pour empêcher les fusillades
Scylla, une société basée à Austin, au Texas, lancée en 2017, propose une IA qui aide les caméras de sécurité à détecter non seulement les armes dissimulées, mais également les activités suspectes, telles que les efforts pour contourner la sécurité ou déclencher une bagarre, a déclaré Greiner.
Lorsque le système entièrement automatisé identifie une arme ou un acteur suspect, il en informe les responsables d’une école ou d’une entreprise, a-t-il déclaré, notant que les tireurs de masse sortent souvent leur arme avant d’entrer dans une installation. Le système peut également être configuré pour refuser immédiatement l’accès et verrouiller les portes, a-t-il déclaré.
“A une époque où chaque seconde compte, il est tout à fait possible que cela ait un impact important”, a déclaré Greiner.
La société, qui a réalisé environ 300 installations dans 33 pays, permet aux institutions clientes de surmonter les lacunes courantes des agents de sécurité, a-t-il ajouté.
“Imaginez un humain assis dans un centre de commandement regardant un mur vidéo, l’humain ne peut regarder que quatre à cinq caméras pendant quatre à cinq minutes avant de commencer à manquer des choses”, a déclaré Greiner. “Il n’y a pas de limite à ce qu’une IA peut regarder.”
Une autre société de sécurité basée sur l’IA, ZeroEyes, propose une surveillance vidéo similaire améliorée par l’IA, mais avec un objectif plus restreint : la détection d’armes à feu.
La société, lancée par d’anciens Navy Seals en 2018, est entrée dans l’entreprise après que l’un de ses fondateurs s’est rendu compte que les caméras de sécurité fournissaient des preuves pour condamner les tireurs de masse après coup, mais n’ont pas fait grand-chose pour prévenir la violence en premier lieu, a déclaré Alaimo, co-fondateur de ZeroEyes. .
“Dans la majorité des cas, le tireur a une arme exposée avant d’appuyer sur la gâchette”, a déclaré Alaimo. “Nous voulions obtenir une image de cette arme et alerter les premiers intervenants avec.”
Comme avec le produit de Scylla, le ZeroEyes AI suit les flux vidéo en direct et envoie une alerte lorsqu’il détecte une arme à feu. Cependant, l’alerte chez ZeroEyes est transmise à une salle de contrôle interne, où les employés de l’entreprise déterminent si la situation constitue une menace réelle.
“Nous avons un humain dans la boucle pour nous assurer que le client ne reçoit jamais de faux positif”, a déclaré Alaimo, ajoutant que le processus complet ne prend que trois secondes, de l’alerte à la vérification à la communication avec un client.
Précision dans la sécurité de l’IA
La sécurité renforcée par l’IA semble être une percée potentiellement vitale en théorie, mais la précision des produits reste incertaine, a déclaré Stanley, de l’ACLU. “Si ce n’est pas efficace, il n’est pas nécessaire d’engager une conversation sur la confidentialité et la sécurité”, a-t-il déclaré. “La conversation devrait être terminée.”
Greiner, de Scylla, a déclaré que l’IA de la société était précise à 99,9 % – “avec beaucoup de 9” – pour identifier les armes, telles que les armes à feu. Mais il n’a pas précisé la précision du système dans l’identification des activités suspectes et a déclaré que la société n’avait pas fait l’objet d’une vérification indépendante de l’exactitude du système.
“Pour nous, chercher un tiers pour le faire – nous ne l’avons pas encore fait”, a déclaré Greiner, ajoutant que la société permettait aux clients de tester le produit avant de l’acheter.
Alaimo, de ZeroEyes, a déclaré que l’utilisation par l’entreprise de la vérification des employés dans le cadre de son processus d’alerte permet d’éliminer les faux positifs. Mais il a refusé de dire à quelle fréquence le système d’IA présente aux employés des faux positifs ou si les employés font des erreurs dans l’évaluation des alertes.
“La transparence est la clé, car si les communautés essaient de prendre des décisions, espérons-le démocratiques, quant à savoir si elles veulent ou non ces technologies dans ces lieux publics, elles doivent savoir si cela en vaut la peine”, a déclaré Stanley.
Autres préoccupations concernant l’IA
Mis à part l’efficacité des systèmes, les critiques ont soulevé des inquiétudes concernant la violation de la vie privée ainsi que la discrimination potentielle permise par l’IA.
Pour commencer, plus de 30 États autorisent les gens à porter ouvertement des armes de poing, laissant ces personnes comme des cibles potentielles de sécurité renforcée par l’IA.
“Porter une arme à feu est désormais légal dans la plupart des endroits de ce pays”, a déclaré Barry Friedman, professeur de droit à l’Université de New York qui étudie l’éthique de l’IA, à ABC News. “Il est très difficile de savoir ce que vous allez rechercher d’une manière qui n’empiète pas sur les droits des personnes.”
Chez ZeroEyes, l’IA envoie une “alerte non létale” aux clients dans les cas où un individu tient légalement une arme à feu, informant le client de l’arme mais s’arrêtant avant une intervention d’urgence, a déclaré Alaimo.
Notant des problèmes de confidentialité supplémentaires, Stanley a déclaré que les responsables de la sécurité ne regardaient jamais la grande majorité des images de surveillance actuellement enregistrées, à moins qu’un éventuel crime n’ait eu lieu. Avec l’IA, cependant, un algorithme analyse chaque minute des séquences disponibles et, dans certains cas, surveille les activités jugées suspectes ou inhabituelles.
“C’est assez effrayant”, a déclaré Stanley.
À la lumière de la discrimination raciale constatée dans les évaluations effectuées par les systèmes de reconnaissance faciale, Stanley a averti que l’IA pourrait souffrir du même problème. Le problème risque de reproduire l’inégalité raciale dans le système de justice pénale au sens large, a ajouté Friedman.
“Le coût de l’utilisation de ces outils lorsque nous ne sommes pas prêts à les utiliser est que la vie des gens sera déchiquetée”, a déclaré Friedman. “Les gens seront identifiés comme des cibles pour les forces de l’ordre alors qu’ils ne devraient pas l’être.”
Pour leur part, Greiner et Alaimo ont déclaré que leurs systèmes d’IA n’évaluaient pas la race des individus affichés dans les flux de sécurité. “Nous n’identifions pas les individus par race, sexe, origine ethnique”, a déclaré Greiner. “Nous identifions littéralement les gens comme un être humain qui tient une arme à feu.”
Alaimo a déclaré que les États-Unis pourraient faire face à une tragédie inutile s’ils renonçaient aux solutions d’IA, d’autant plus que d’autres correctifs fonctionnent sur un horizon temporel plus long.
“Nous pouvons et devons continuer à parler de santé mentale. Nous pouvons et devons continuer à discuter des lois sur les armes à feu”, a déclaré Alaimo. “Ma préoccupation est aujourd’hui – pas dans un an, pas dans 10 ans, quand nous pourrions avoir des réponses à ces questions plus difficiles.”
“Ce que nous faisons est une solution en ce moment”, a-t-il déclaré.