L’intelligence artificielle et l’évolution des risques

14 Juin 2024 | Publications, Analyse

A l’image de la bombe atomique, l’intelligence artificielle marquait son époque. Elle révolutionne les conflits et ouvre de nouvelles vulnérabilités et de nouveaux risques. Aujourd’hui, les SALA1 alimentent les fantasmes et les craintes mais qu’en est-il réellement ? Dans quelle mesure l’IA va changer notre rapport au risque, notamment dans le domaine NRBC ?

Définition de l’IA :

Difficile de définir l’IA en quelques lignes, malgré tout nous pouvons insérer quelques concepts clefs. L’IA est intelligente dans la mesure où elle peut apprendre d’elle-même avec des données que l’homme lui donne. Elle se nourrit de ses données pour établir un raisonnement et décider d’une action. Cela s’appelle le machine learning. Il peut être supervisé, cela signifie que les données l’orientent vers une réponse. L’IA réajustera d’elle-même si son résultat n’est pas à la hauteur de la réponse proposée. De ce fait, l’IA ajuste en permanence son modèle pour correspondre à un résultat. Le machin learning peut être également non supervisé, pour cela l’intelligence reçoit des données qui n’ont pas de réponse et le système trie lui-même les informations. Ce procédé permet de faire naitre des schémas jusque-là inconnus.
Le concept de Deep Learning est essentiel à connaitre pour définir l’IA. Il s’agit d’un ensemble de couches de neurones. Chaque couche est composée de dizaines ou centaine de neurones, chaque neurone aura une fonction bien précise. Ce système peut permet d’identifier et de reconnaitre des images.

L’IA dans le domaine NRBC :

Ces différents procédés peuvent révolutionner les risques. En 2022, une équipe de chercheurs a voulu montrer les dangers de l’IA. L’équipe de Sean Ekins et Fabio Urbina ont démontré qu’il était possible, grâce à l’IA, de créer 40 000 éléments chimiques létaux en 6h.

1 Système d’armes létales autonomes

La perspective de l’utilisation de l’IA dans le cadre de l’arme nucléaire peut effrayer certaines personnes. Il convient de définir comment cette IA sera utilisée. Elle peut être utilisée pour parfaire le vecteur, améliorer les capacités de ciblage, comme le précise le professeur Stephan Puwel2. Il met en avant la relation entre précision et quantités de missiles. Pour ce faire, il compare la combinaison de ces deux éléments en prenant pour exemple le déploiement de missiles Pershing II, Polaris et Titan en Europe dans les années 80. Durant la crise des Euromissiles, l’URSS avait davantage de vecteurs à charge non conventionnelle que les Etats-Unis. Cependant, les Etats-Unis avaient des vecteurs bien plus précis, de ce fait, le gouvernement américain n’a pas trouvé utile de se doter d’avantages d’armes. En effet, la fiabilité de ses vecteurs était suffisante.

L’IA peut aider à la réduction verticale3 des armes nucléaires ?

Avant de penser que l’IA est notre meilleur allié, il convient de garder à l’esprit que nous ne pouvons pas penser en terme les vecteurs nucléaires sans penser à la défense antimissile. Si la défense antimissile devient plus précise, la dissuasion nucléaire est affaiblie. Nous pourrions revivre une prolifération verticale des armes
nucléaires croisées avec l’IA.

Selon cet exemple, l’IA ne semble pas être un danger si elle est développée à la fois dans les vecteurs offensifs mais aussi défensifs. L’IA deviendra un accélérateur du progrès technique.

La machine autonome permettant d’annihiler toute vie sur terre du docteur Folamour4, n’est pas une réalité. Aujourd’hui, plusieurs des scientifiques plaident pour l’arrêt des recherches sur l’IA. Quoi qu’il en soit cela fait partie de notre quotidien, le droit peut être un des alliés pour faire face à ces nouveaux risques. Le 14 mai 2024, le Conseil de l’Europe est la première organisation internationale à avoir imposé une loi-cadre sur l’IA5.

L’intelligence artificielle doit-elle être bannie des systèmes d’armes nucléaires ? » S. Puwal
3 On parle de réduction des armes en matière de quantité
4 Docteur Folamour ou comment j’ai appris à aimer la bombe
5 Intelligence artificielle le cadre juridique européen

Télécharger en PDF la version Française

Télécharger en PDF la version Anglaise

Gaëtan GUILIANI – ID : xxx

INFORMATION

L’article (analyse, conseil, étude) est unique et a été rédigé par un bénévole expert de chez ADESS, ayant une grande expertise dans sa thématique de prédilection. Il a accumulé une expérience professionnelle significative et des diplômes qui lui sont associés.

ADESS n’a aucune intention d’approuver ou d’infirmer les opinions exprimées dans les publications, qui restent la propriété de leurs auteurs :