De quoi auront l’air les guerres de demain ?

Alors qu’un mouvement mondial d’interdiction des robots tueurs est en branle, le politologue québécois Jean-François Caron croit plutôt qu’il faut accueillir à bras ouverts l’arrivée de l’intelligence artificielle sur les champs de bataille.

Photo : Karen Assayag

L’ancien secrétaire d’État américain Henry Kissinger manifestait sa crainte au sujet de l’intelligence artificielle dans le long article qu’il a signé dans le numéro de juin 2018 du magazine The Atlantic. Serions-nous en train de nous acheminer vers un monde « dépendant des machines fonctionnant à partir de données et d’algorithmes et ignorant toute norme éthique » ?

Dans la sphère militaire, certaines armes intelligentes n’ont déjà plus besoin de l’homme pour fonctionner. Le recours à l’intelligence artificielle soulève des questions politiques, juridiques et morales. Loin de s’inquiéter de l’IA, le politologue québécois Jean-François Caron, qui vit aujourd’hui au Kazakhstan, croit au contraire qu’elle permettra d’assurer un plus grand respect des lois de la guerre. Dans un livre à paraître en anglais en cours d’année (en français l’année suivante), le professeur agrégé de l’Université Nazarbayev explique comment l’IA peut « humaniser » la guerre.

L’actualité a rencontré Jean-François Caron à son bureau, au Kazakhstan.

Vous comprenez l’inquiétude de Henry Kissinger ? L’homme ne risque-t-il pas de perdre la maîtrise du champ de bataille ?

Cette inquiétude, attribuable aux scénarios apocalyptiques qui nous viennent de Hollywood, me semble exagérée. Bien sûr, des armes reconnaissent déjà une cible et la détruisent sans intervention humaine. Le système antimissile israélien Dôme de fer est utilisé depuis presque 10 ans. Le Sea Hunter, un navire entièrement autonome lancé par la marine américaine en 2016, sera armé et utilisé pour la lutte anti-sous-marine si les tests s’avèrent concluants. Le système SGR-A1, utilisé par l’armée sud-coréenne afin d’assurer la protection de la zone démilitarisée avec la Corée du Nord, a également la capacité de tirer sur des cibles sans intervention humaine. Mais nous sommes encore bien loin d’un monde où les machines seront en mesure de faire preuve d’une véritable autonomie. Il s’agit de « technologie automatisée » : leur capacité d’action relève exclusivement d’une autonomie préprogrammée par l’homme. Nous sommes à des années-lumière de voir apparaître des robots qui sont en mesure de porter des jugements moraux et de déterminer par eux-mêmes les cibles qui méritent d’être attaquées.

Les militaires sont fragiles et commettent des violations, écrivez-vous, alors que l’IA pourrait concourir au respect des lois de la guerre ?

Voilà un des grands avantages de l’IA. Ces systèmes peuvent fonctionner en l’absence d’émotions et de sentiments, qui ont été des facteurs centraux dans la perpétration de crimes de guerre ou d’incidents tragiques. Il suffit de penser au vol 655 d’Iran Air, un avion abattu en juillet 1988 par le croiseur USS Vincennes au-dessus du golfe Persique, avec près de 300 personnes à bord. L’enquête a conclu que l’équipage du navire américain avait été victime d’un problème appelé scenario fulfillment [réalisation du scénario], où des soldats perçoivent un état de choses, en soi nullement dangereux, comme une menace potentielle et réagissent conformément à leur entraînement. Les systèmes automatisés ne réagissent pas dans la précipitation, en situation de stress, de fatigue ou de crainte de la mort. Ils peuvent analyser froidement la nature d’un objet et le prendre pour cible si les paramètres de celui-ci correspondent à ce qui a été préprogrammé comme étant un objectif légitime. En somme, les machines nous offrent la possibilité d’humaniser la guerre.

Avec l’introduction des armes intelligentes et des robots tueurs autonomes, va-t-on vers une redéfinition des doctrines militaires ?

La mise au point de nouvelles technologies a toujours obligé les forces armées à revoir leurs façons de faire la guerre. Le canon a rendu obsolètes les fortifications médiévales. La mitrailleuse Gatling, en pleine guerre civile américaine, a rendu suicidaires les stratégies qui consistaient à attaquer en terrain découvert. Il faudra voir comment les forces armées s’adapteront encore une fois à ces nouvelles technologies. La question la plus importante est de savoir si elles iront à l’encontre des règles morales de la guerre. À cet égard, je crois que ces technologies auront des conséquences positives sur le respect des règles.

Est-il possible de justifier le recours à l’IA dans les affaires militaires ?

Bien des raisons éthiques justifient que nous utilisions ces systèmes. Premièrement, comme n’importe quel employeur, les forces armées ont le devoir d’assurer un maximum de protection de la vie et de la santé de leurs employés. L’utilisation de machines automatisées participe au respect de cette obligation. Pourquoi en effet risquer la vie de soldats en les déployant dans un milieu hostile afin qu’ils éliminent une cible légitime, alors que cette tâche peut être confiée à un robot ou à un drone ? Deuxièmement, la principale responsabilité de l’État consiste à assurer la protection de ses civils. Or, les systèmes automatisés, comme le Dôme de fer, permettent une réponse rapide et efficace contre des menaces sérieuses à la vie des civils israéliens.

Sur le plan juridique, le robot tueur a-t-il une nationalité ? Peut-il comparaître devant une cour martiale ?

L’utilisation d’armes automatisées laisse entrevoir un vide juridique important, dans la mesure où il serait impossible de trouver un responsable pour toute erreur commise par une de ces machines. Qui devrait être incriminé si elle en venait à prendre pour cible un enfant armé d’un fusil en plastique jouant à la guerre avec ses amis ? Le technicien chargé de sa programmation ? L’entreprise qui a construit et assemblé la machine ? Il est donc primordial que l’utilisation de ces engins ne soit permise qu’après une longue période de tests, pendant lesquels ils seront soumis à toutes les éventualités imaginables, afin de s’assurer de leur pleine conformité avec les lois de la guerre.

Les systèmes automatisés ne réagissent pas dans la précipitation, en situation de stress, de fatigue ou de crainte de la mort.

La guerre est en partie fondée sur un code d’honneur, une égalité entre combattants. Les drones fragilisent ce code, l’utilisateur étant aux États-Unis et la cible au Pakistan, par exemple. Les armes intelligentes et les robots tueurs autonomes ne risquent-ils pas de l’abolir ?

Il est vrai que la logique traditionnelle qui justifie la mort d’un soldat ennemi sur le champ de bataille est liée à celle de la légitime défense. Cette logique est beaucoup moins vraie lorsqu’un combattant peut tuer un soldat ennemi à distance, à l’abri de tout danger, dans une base militaire au Nevada (d’où les opérateurs de drones mènent habituellement leurs opérations). Alors, la guerre n’est plus perçue comme un duel, mais comme une simple chasse à l’homme.

Il y a deux manières de voir les choses. Premièrement, à la lumière du mode opératoire des groupes terroristes contemporains, nous pouvons affirmer qu’il existe toujours une réciprocité de la mort entre l’opérateur de drone dans le désert du Nevada et un terroriste de Daech ou d’al-Qaïda. Comme les membres de ces groupes s’en prennent indistinctement aux soldats et aux civils, l’opérateur de drone demeure à tout moment, et à n’importe quel endroit, une cible potentielle.

Deuxièmement, un individu qui se livre à une agression non justifiée ne peut plaider un droit à la légitime défense si la personne attaquée décide de se défendre. Dans toute forme d’attaque, il y a nécessairement un belligérant en tort et un autre qui a le droit légitime de se défendre. Dans la mesure où les armes autonomes ne sont pas utilisées à des fins offensives (comme c’est le cas avec le Dôme de fer, notamment), il est possible de surmonter le problème auquel vous faites mention.

Dans votre livre précédent, Théorie du super soldat : La moralité des technologies d’augmentation dans l’armée (2018), vous montrez que l’objectif des armées est depuis toujours de produire un militaire plus performant. L’utilisation de l’IA pour créer des armes intelligentes ou des robots tueurs autonomes serait en droite ligne avec cette évolution ?

La volonté d’augmenter les capacités des soldats a toujours fait partie du monde de la guerre. L’exemple le plus célèbre demeure celui des nazis qui distribuèrent massivement de la pervitine (l’ancêtre de la méthamphétamine) aux membres de la Wehrmacht en raison de sa capacité d’accroître leur vigilance et leur résistance à la fatigue. Les amphétamines sont encore utilisées dans l’armée de l’air américaine. De nouvelles méthodes sont en cours d’essai. De nombreuses armées visent à augmenter les capacités cognitives en matière d’apprentissage des soldats et cherchent à mettre au point des interfaces personne-machine visant à réduire les faiblesses psychologiques et physiques inhérentes aux individus.

On tente donc de créer des super-soldats ?

Oui. Les héros de bandes dessinées, comme Captain America, se rapprochent de la réalité. Il est désormais possible d’imaginer des soldats possédant des capacités physiques et intellectuelles similaires à celles des héros de bandes dessinées ou de films très connus. Il faut s’attendre à observer au cours des prochaines années une réduction importante des soldats traditionnels au profit de machines et de robots possédant des formes d’autonomie. En fait, je devrais plutôt parler d’une accélération de ce processus, enclenché depuis maintenant plusieurs années.