L’industrialisation signifiait l’adoption généralisée de la vapeur. L’énergie à vapeur est une technologie à usage général – elle alimentait l’équipement d’usine, les trains et les machines agricoles. Les économies qui ont adopté la vapeur ont laissé derrière elles – et ont conquis – celles qui ne l’ont pas fait.
L’IA est la prochaine technologie polyvalente importante. Un 2018 rapport du McKinsey Global Institute ont prédit que l’IA pourrait générer 13 000 milliards de dollars d’activité économique mondiale supplémentaire d’ici 2030 et que les pays à la tête du développement de l’IA capteront une part démesurée de ces avantages économiques.
L’IA améliore également la puissance militaire. L’IA est de plus en plus appliquée dans des situations qui nécessitent de la vitesse (comme la défense contre les projectiles à courte portée) et dans des environnements dans lesquels le contrôle humain est logistiquement gênant ou impossible (comme sous l’eau ou dans des zones bloquées par le signal).
De plus, les pays leaders dans le développement de l’IA pourront exercer leur pouvoir en établissant des normes et des standards. La Chine est déjà exportation Systèmes de surveillance basés sur l’IA dans le monde entier. Si les pays occidentaux ne peuvent pas offrir un système alternatif qui protège les droits de l’homme, alors de nombreux pays pourraient suivre l’exemple techno-autoritaire de la Chine.
L’histoire montre qu’à mesure que l’importance stratégique d’une technologie augmente, les pays sont plus susceptibles d’exercer un contrôle sur cette technologie. Le gouvernement britannique a fourni des fonds pour le développement précoce des moteurs à vapeur et a fourni d’autres formes de soutien au développement de l’énergie à vapeur, telles que la protection des brevets et les tarifs sur les moteurs à vapeur importés.
De même, au cours de l’exercice 2021, le gouvernement américain a dépensé 10,8 milliards de dollars en R&D sur l’IA, dont 9,3 milliards de dollars provenaient du ministère de la Défense. Les dépenses publiques chinoises en IA sont moins transparentes, mais les analystes estimation que c’est à peu près comparable. Les États-Unis ont également tenté de restreindre l’accès des Chinois aux puces informatiques spécialisées, qui sont crucial pour le développement et le déploiement de l’IA, tout en sécurisant notre propre approvisionnement avec CHIPS et la loi scientifique. Groupes de réflexion, comités consultatifset Les politiciens exhortent constamment les dirigeants américains à suivre les capacités d’IA de la Chine.
Jusqu’à présent, la révolution de l’IA correspond au modèle des technologies à usage général précédentes. Mais l’analogie historique s’effondre lorsque l’on considère les risques posés par l’IA. Cette technologie est beaucoup plus puissante que la machine à vapeur, et les risques qu’elle pose sont bien plus importants.
Le premier risque provient d’un accident, d’une erreur de calcul ou d’un dysfonctionnement. Le 26 septembre 1983, un système d’alerte avancée par satellite près de Moscou a signalé que cinq missiles nucléaires américains se dirigeaient vers l’Union soviétique. Heureusement, un lieutenant-colonel soviétique, Stanislav Petrov, a décidé d’attendre la confirmation d’autres systèmes d’alerte. Seul le bon jugement de Petrov l’a empêché de transmettre l’avertissement dans la chaîne de commandement. S’il l’avait fait, l’Union soviétique aurait bien pu lancer une frappe de représailles, provoquant une guerre nucléaire à grande échelle.
Dans un avenir proche, les pays pourraient se sentir obligés de se fier entièrement à la prise de décision de l’IA en raison de l’avantage de vitesse qu’elle offre. L’IA pourrait faire des erreurs de calcul dramatiques qu’un humain ne ferait pas, entraînant un accident ou une escalade. Même si l’IA se comporte à peu près comme prévu, la vitesse à laquelle le combat pourrait être mené par des systèmes autonomes pourrait entraîner des cycles d’escalade rapides, similaires à “flash se bloque” causée par des algorithmes de trading à grande vitesse.
Même si elles ne sont pas intégrées dans des systèmes d’armes, des IA mal conçues pourraient être extrêmement dangereuses. Les méthodes que nous utilisons pour développer l’IA aujourd’hui – récompensant essentiellement l’IA pour ce que nous percevons comme des résultats corrects – produisent souvent des systèmes d’IA qui font ce que nous leur avons dit de faire mais pas ce que nous voulions qu’ils fassent. Par exemple, lorsque des chercheurs ont cherché à apprendre à un bras robotique simulé à empiler des briques Lego, ils l’ont récompensé pour avoir placé la face inférieure d’une brique plus haut sur une surface – et il a retourné les briques à l’envers plutôt que de les empiler.
Pour de nombreuses tâches, un futur système d’IA pourrait être confié, accumuler des ressources (puissance de calcul, par exemple) et s’empêcher d’être désactivé (par exemple, en cachant ses intentions et ses actions aux humains) pourrait être utile. Donc, si nous développons une IA puissante en utilisant les méthodes les plus courantes aujourd’hui, il se peut qu’elle ne fasse pas ce pour quoi nous l’avons conçue et qu’elle cache ses véritables objectifs jusqu’à ce qu’elle perçoive qu’elle n’a pas à le faire – en d’autres termes, jusqu’à ce que cela peut nous dominer. Un tel système d’IA n’aurait pas besoin d’un corps physique pour faire cela. Il pourrait recruter des alliés humains ou faire fonctionner des robots et d’autres équipements militaires. Plus le système d’IA est puissant, plus cette situation hypothétique est préoccupante. Et la concurrence entre les pays peut rendre les accidents plus probables, si les pressions concurrentielles conduisent les pays à consacrer plus de ressources au développement de systèmes d’IA puissants au détriment de la sécurité de ces systèmes.
Le deuxième risque est que la compétition pour la supériorité de l’IA pourrait augmenter les chances d’un conflit entre les États-Unis et la Chine. Par exemple, s’il apparaît qu’un pays est sur le point de développer une IA particulièrement puissante, un autre pays (ou une coalition de pays) pourrait lancer une attaque préventive. Ou imaginez ce qui pourrait arriver si, par exemple, les progrès de la détection marine, partiellement activés par l’IA, réduisaient l’effet de dissuasion des missiles nucléaires lancés par des sous-marins en les rendant détectables.
Troisièmement, il sera difficile d’empêcher les capacités d’IA de se répandre une fois développées. Le développement de l’IA est actuellement beaucoup plus ouvert que le développement des technologies stratégiquement importantes du XXe siècle telles que les armes nucléaires et le radar. Les découvertes les plus récentes sont publiées en ligne et présentées lors de conférences. Même si la recherche sur l’IA devenait plus secrète, elle pourrait être volée. Bien que les premiers développeurs et adopteurs puissent bénéficier de l’avantage du premier arrivé, aucune technologie – même les technologies militaires top secrètes comme la bombe nucléaire – n’a jamais été exclusive.
Plutôt que d’appeler à la fin de la concurrence entre les nations, il est plus pratique d’identifier les mesures pragmatiques que les États-Unis pourraient prendre pour réduire les risques liés à la concurrence de l’IA et encourager la Chine (et d’autres) à faire de même. De telles étapes existent.
Les États-Unis devraient commencer avec leurs propres systèmes. Les agences indépendantes devraient évaluer régulièrement le risque d’accident, de dysfonctionnement, de vol ou de sabotage de l’IA développée dans le secteur public. Le secteur privé devrait être tenu de procéder à des évaluations similaires. Nous ne savons pas encore comment évaluer à quel point les systèmes d’IA sont risqués – davantage de ressources doivent être consacrées à ce problème technique délicat. A la marge, ces efforts se feront au détriment des efforts d’amélioration des capacités. Mais l’investissement dans la sécurité améliorerait la sécurité des États-Unis, même s’il retarde le développement et le déploiement de l’IA.
Ensuite, les États-Unis devraient encourager la Chine (et d’autres) à rendre ses systèmes sûrs. Les États-Unis et l’Union soviétique ont conclu plusieurs accords de maîtrise des armements nucléaires tout au long de la guerre froide. Des étapes similaires sont maintenant nécessaires pour l’IA. Les États-Unis devraient proposer un accord juridiquement contraignant interdisant l’utilisation du contrôle autonome des lancements d’armes nucléaires et explorer des mesures de contrôle des armements « plus douces », y compris des normes techniques volontaires, pour empêcher une escalade accidentelle des armes autonomes.
Les sommets sur la sécurité nucléaire convoqués par le président Obama en 2010, 2012, 2014 et 2016 ont réuni les États-Unis, la Russie et la Chine et ont conduit à des progrès significatifs dans la sécurisation des armes et des matières nucléaires. Désormais, les États-Unis et la Chine doivent coopérer sur la sûreté et la sécurité de l’IA, par exemple en poursuivant des projets de recherche conjoints sur la sécurité de l’IA et en promouvant la transparence dans la recherche sur la sûreté et la sécurité de l’IA. À l’avenir, les États-Unis et la Chine pourraient surveiller conjointement les signes de projets à forte intensité de calcul, pour détecter les tentatives non autorisées de construire de puissants systèmes d’IA, comme le fait l’Agence internationale de l’énergie atomique avec les matières nucléaires pour empêcher la prolifération nucléaire.
Le monde est sur le point de connaître une transformation aussi dramatique que la révolution industrielle. Cette transformation posera des risques immenses. Pendant la guerre froide, les dirigeants des États-Unis et de l’Union soviétique ont compris que les armes nucléaires liaient le destin de leurs deux pays. Un autre lien de ce type est en cours de création dans les bureaux des entreprises technologiques et les laboratoires de défense du monde entier.
Will Henshall poursuit une maîtrise en politique publique à la Kennedy School of Government de Harvard.