Grave précédent en Libye : des drones tueurs autonomes attaquent des humains
Dans la sale guerre dont la Libye est le théâtre depuis l’intervention française de 2011, un pas effrayant a été franchi : l’usage de drones autonomes qui orchestrent des attaques sans la moindre intervention ni le moindre contrôle humain.
Selon un récent rapport très circonstancié de l’ONU, c’est ce qui s’est passé pour la première fois en 2020, en Libye. Ce drone, présenté comme “un système armé autonome létal” est doté d’une “intelligence artificielle”. En Libye, il a été utilisé par des forces progouvernementales basées à Tripoli, dans leur lutte contre les miliciens ennemis, rapporte Courrier international.
L’appareil utilisé, un drone de conception turque Kargu-2, est capable de “choisir” ses cibles et d’activer les tirs létaux sans la moindre intervention humaine. Un rapport de l’ONU documente pour la première fois une telle situation, qui inquiète les experts.
Selon le rapport de l’ONU, ces drones “ont été programmés pour “repérer” et attaquer des cibles sans nécessiter la moindre intervention humaine, y compris pour prendre la “décision” de tirer.
Dans le cas cité par le rapport de l’ONU, le Kargu-2 a été utilisé contre un groupe de soldats qui tentaient de prendre la fuite.
« Les soldats des forces affiliées au colonel Haftar, qui battaient en retraite, ont été pourchassés et ciblés par des drones de combat autonomes. Ces drones ont été capables de chercher et d’attaquer des cibles sans aucune intervention humaine », affirme le groupe d’experts de l’ONU sur la Libye
Ce rapport de l’ONU, rédigé par des experts indépendants, a été envoyé à un comité des sanctions de l’ONU pour examen.
Une première dans l’histoire de l’Humanité
Y a-t-il eu des victimes? Le rapport ne l’affirme pas mais le sous-entend fortement. Avec ou sans victimes tuées, c’est de toute façon une première dans l’histoire de l’Humanité, rappelle l’ONU.
Ce drone turc, le Kargu-2 de la société STM, est un appareil dit “flâneur”. Il “apprend” de façon automatique comment repérer et éliminer ses cibles. Ressemblant plus aux jouets ou drones de loisir qu’aux célèbres “Reaper” américains, cet appareil peut voler par groupe de 20 drones travaillant ensemble, en “essaim”.
STM décrit son arme comme “un drone d’attaque à voilure tournante” pouvant être utilisé de manière autonome ou manuelle. La présentation vidéo de l’appareil montre son efficacité.
La possibilité de laisser un robot “choisir” ses cibles et les éliminer est redouté de longue date par les experts de la robotique. Et pose de nombreuses questions éthiques.
Régulièrement, des experts comme Stephen Hawking, Noam Chomsky ou encore Elon Musk réclament l’interdiction – préventive – de ce type d’armes autonomes offensives, qu’aucun texte ne régit. Plusieurs ONG font de même, face aux dangers qu’ils représentent.
C’est aujourd’hui la réalité qui rattrape la fiction: un robot peut éliminer des êtres humains sans aucune décision humaine, sans que personne n’ait à “appuyer sur le bouton”.
Et les questions soulevées sont infinies: le droit militaire interdit de s’en prendre aux civils… mais qu’en est-il si c’est un robot qui commet ces meurtres? A ce jour, aucune réglementation ne prévoit ce type d’armes.
“Préoccupations éthiques et sociétales”
Que se passe-t-il si ce type d’engin est utilisé pour réprimer des manifestations civiles? Ou s’il tombe entre les mains ennemis?
Plus simplement, même utilisé dans le cadre “prévu”, ce type d’appareil saura-t-il faire la différence entre un groupe de soldats qui s’entraînent et des enfants jouant au foot? Ou entre un combattant armé d’un fusil et un paysan équipé d’un râteau?
« Le développement de ces armes autonomes soulève clairement des préoccupations éthiques et sociétales à la fois sérieuses et légitimes », indique Amnesty International
“Le temps est compté pour mettre fin au développement et à la prolifération des armes totalement autonomes, mais nous devons nous presser. Les gouvernements doivent commencer de toute urgence à négocier un nouveau traité d’interdiction de ces armes terrifiantes, ajoute Amnesty.
Nécessaire interdiction
« Ces munitions flâneuses montrent à quel point le contrôle et le jugement humains dans les décisions de vie ou de mort s’érodent, potentiellement à un point inacceptable », affirme Mary Wareham, directrice du plaidoyer sur les armes à Human Rights Watch
Cette ONG, comme d’autres, tente de faire interdire au niveau international ces armes entièrement autonomes, afin d’éviter une inexorable fuite en avant.
Mme Wareham estime ainsi dans le New York Times que les pays “doivent agir dans l’intérêt de l’humanité en négociant un nouveau traité international interdisant les armes entièrement autonomes et conserver un contrôle humain significatif sur l’utilisation de la force”.
En 2016, ce type de robots avait été lancé en Australie pour tuer… des chats errants.
A.A./Agences