Joseph Henrotin, chargé de recherche au Centre d'analyse et de prévention des risques internationaux, à Paris (Capri). © Frédéric PAUWELS/huma

« Le « robot tueur » n’est une réalité ni existante ni en cours de conception »

Pour le spécialiste des questions de défense Joseph Henrotin, l’arme complètement autonome relève du fantasme. Quelle que soit la technologie utilisée, il faut surtout promouvoir les principes du droit des conflits et du droit international humanitaire et les traduire dans des règles d’engagement claires.

Le « robot tueur », au stade d’embryon actuellement, deviendra-t-il un jour réalité?

Non. Quand vous tracez la généalogie du terme « robot tueur », vous vous apercevez qu’elle est d’ordre militant. Il a été utilisé dans le cadre de campagnes, par ailleurs tout à fait légitimes, de désarmement. Derrière ces mots, on trouve des choses extrêmement diverses qui sont systématiquement sous contrôle humain. A contrario, d’autres appareillages qui ne répondent pas à la définition du « robot tueur » intègrent des degrés d’autonomisation beaucoup plus poussés, comme dans l’aéronautique civile où la plupart des vols se font aujourd’hui en pilotage automatique. Les systèmes sont toujours conçus pour un objectif par l’être humain, avec une définition de mission. Il n’existe pas aujourd’hui de système même relativement autonome. Mais s’il n’y a pas d’autonomie, il peut malgré tout exister des automatismes, me direz-vous. Cette description est effectivement beaucoup plus correcte. Un certain nombre de systèmes, par l’intégration de l’intelligence artificielle, vont en effet pouvoir aider le militaire, notamment au ciblage. La guerre est par définition chaotique. Elle s’opère dans l’incertitude la plus totale. Pourquoi fait-on de la stratégie militaire et dispose-t-on de forces armées? Pour ordonnancer le chaos du champ de bataille. C’est la rationalité première d’une force armée. Or, si vous introduisez des systèmes qui sont autonomes, qui vont définir leur propre norme par rapport à l’action militaire, vous ajoutez du chaos au chaos. Ce serait complètement contre-productif. Je ne connais pas aujourd’hui de systèmes qui répondent au canon du « robot tueur ». Cela ne correspond aujourd’hui ni à une réalité existante ni à un système en cours de conception.

Il faut un système de u0022compensationu0022 à la réduction des effectifs militaires, c’est la robotique.

Faut-il néanmoins encadrer les nouvelles technologies qui ont une certaine autonomie?

Les encadrer, certainement. Mais l’encadrement sera moins efficace s’il est uniquement juridique que s’il est technique et doctrinal. Quand bien même il y aurait un traité d’interdiction des systèmes robotiques, beaucoup d’Etats ne le signeraient pas: la Chine, la Russie, les Etats-Unis, l’Inde… On s’interdirait soi-même l’utilisation d’un matériel dont les autres vont se servir comme un avantage comparatif. La question centrale à côté de laquelle passent les tenants de l’approche du « robot tueur » est celle des règles d’engagement. Vous n’allez pas tirer des obus avec des sous-munitions n’importe quand, n’importe comment. Vous le faites dans le cadre d’un conflit et dans un certain nombre de cas de figures bien précis. Vous allez définir des kill boxes dans lesquelles il n’y a personne d’autre que les ennemis. La question est: quelles sont les règles d’engagement dans lesquelles je vais pouvoir utiliser mon armement? Ces règles d’engagement doivent répondre, pour les armées européennes aujourd’hui, à un certain nombre de dispositions préexistantes et notamment celles du droit des conflits armés, du droit humanitaire… On ne tire pas sur des civils. C’est un principe applicable à tous les systèmes d’armes.

Peut-on avoir les mêmes garanties de respect de ces règles de la part d’autres puissances, peut-être moins scrupuleuses?

Il n’y pas de déterminisme en politique. Mais on voit très bien à travers les exercices militaires que ces puissances conduisent ou les moyens qu’elles mettent en oeuvre, qu’elles n’hésiteraient pas à passer outre les conventions en matière de droit des conflits armés, surtout en réinterprétant le droit dans le sens qui leur convient. Cela me paraît évident. Au-delà, il est important que nous, nous respections les règles et les normes parce que nous en avons besoin eu égard aux civils, dans les conflits asymétriques du type de ceux en cours au Sahel. Qu’on interdise les « robots tueurs » ou pas, la complexité de ces conflits restera la même. Ce qui nous sauve, c’est le respect des normes du droit des conflits armés, du droit humanitaire international et la définition de règles d’engagement solides, compréhensibles et qui se prêtent le moins possible à interprétation. Quel que soit le système d’armes, il faut revenir aux fondamentaux.

L’intérêt des puissances militaires pour ces armements réside-t-il dans la minimisation des pertes humaines?

L’avantage principal est de recréer une efficience perdue. Depuis la fin de la guerre froide, les armées européennes ont fondu. En 1990, la Belgique disposait de trois corps d’armée, soit six divisions de deux à trois brigades, plus une gendarmerie nationale. Aujourd’hui, elle compte deux brigades. On a troqué la quantité pour la qualité. Or, dans les conflits contre d’autres Etats ou contre des groupes irréguliers, la masse est une qualité en soi. En réalité, la qualité permet de compenser en partie la baisse de quantité. Je me suis rendu au Cameroun récemment, même Boko Haram (NDLR: groupe islamiste nigérian qui sévit principalement dans son pays mais, à l’occasion, dans certains Etats voisins) utilise des drones et des mitrailleuses téléopérées. Eux aussi s’approprient de la qualité et, en plus, ils ont de la quantité. Nos avantages comparatifs sont appelés à se réduire. Donc, il faut un système de « compensation », c’est la robotique.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire