Accueil / A C T U A L I T É / Les risques de la robotisation militaire

Les risques de la robotisation militaire

 

 

Jean-Baptiste Jeang?ne Vilmer ? Enseignant en droit ? l?Universit? McGill, membre associ? de la Chaire Raoul-Dandurand ? l?UQAM et auteur de La guerre au nom de l?humanit? (PUF, 624 p.)?

UNE INTERDICTION DU D?VELOPPEMENT, DE LA PRODUCTION ET DE L?USAGE DE ROBOTS SOLDATS S?IMPOSE

Le 19 novembre, l?ONG Human Rights Watch et le programme des droits de la personne de Harvard Law School publiaient un rapport alarmiste intitul? Losing Humanity : The Case Against Killer Robots. Les robots en question ne sont pas les drones existants ? lesquels suscitent d?j? beaucoup d?interrogations ?thiques et juridiques en particulier parce qu?ils sont l?instrument d?une politique d?assassinats cibl?s -, mais ceux de la g?n?ration suivante, qui font davantage preuve d?autonomie et qu?on appelle donc des robots l?taux autonomes (RLA).

Les drones actuels ont une certaine dose d?autonomie ? pour leur navigation -, mais ils restent pilot?s ? distance. Ils ne choisissent pas leur cible et ne tirent que sous commandement humain (human-in-the-loop weapons). Les machines actuellement en d?veloppement choisissent leur cible et tirent automatiquement, mais sous la supervision d?un humain (on the loop) ou n?impliquent m?me aucune intervention humaine (out the loop).

 

Plusieurs ?tats sont engag?s dans cette course ? la robotisation militaire, ? travers la comp?tition que se livrent leurs industries de d?fense. Ce d?veloppement est in?luctable, car les robots pr?sentent un certain nombre d?avantages par rapport aux soldats humains.

?

Les avantages

 

D?abord, ils les remplacent pour accomplir des t?ches risqu?es et permettent alors de sauver des vies dans les rangs de la puissance utilisatrice. Par rapport ? l??poque o? les soldats n??taient consid?r?s que comme de la chair ? canon, c?est un progr?s important. C?est une autre manifestation de l?intol?rance dont fait preuve l?opinion occidentale ? l??gard des pertes humaines depuis le Vietnam ; intol?rance caricatur?e par l?expression ? guerre z?ro mort ?. Cet ?tat d?esprit traduit un v?ritable bouleversement puisque l?acceptation de la mort ?tait pendant des si?cles au fondement de la guerre et des vertus de l??thos militaire, comme le courage et l?esprit de sacrifice.

 

Ensuite, les robots pr?sentent aussi un avantage ?conomique : le Department of Defense am?ricain ne cache pas que ce qui l?incite ? d?fendre l?autonomisation croissante des armements sont surtout les ?conomies de personnel et les r?ductions de co?t qu?elles entra?nent ? et qui sont d?ailleurs plus minces qu?il n?y para?t lorsque l?on prend en compte, dans le cas des drones, par exemple, le nombre d?heures de vol, l?infrastructure, l??quipe au sol, la maintenance et le taux d??crasement.

 

Les robots ont aussi des sens plus d?velopp?s que les hommes : leurs diff?rents capteurs leur permettent de voir plus loin, ? travers les murs, la nuit, etc., et ils ont une capacit? de calcul plus ?lev?e. Contrairement aux humains, ils ne sont soumis ni aux ?motions qui peuvent alt?rer leur jugement comme la peur, la frustration ou la vengeance, ni au stress causant des r?actions psychologiques probl?matiques, comme la dissonance cognitive ? ces deux faiblesses ?tant responsables d?un grand nombre de crimes de guerre.

 

D?o? le pari de certains roboticiens selon lesquels les RLA seraient de parfaits soldats ; m?me ? plus ?thiques ? que les hommes dans le sens o?, bien programm?s, ils respecteraient ? la lettre le droit international humanitaire (DIH). Un certain nombre de recherches ? dont celles financ?es par l?Army Research Office am?ricain ? sont donc actuellement men?es pour d?velopper des algorithmes capables d?? apprendre ? le DIH aux robots.

 

L?illusion du robot ? ?thique ?

 

Il s?agit ? mon avis d?un positivisme na?f. On ne peut pas convertir le jugement moral ou le ? bon sens ? en algorithmes. Ces roboticiens pr?sument que le DIH est un ensemble de r?gles univoques, ce qui n?est ?videmment pas le cas. Ses principes g?n?raux qu?il faudrait programmer, tels que la distinction, la proportionnalit?, la n?cessit? militaire ou l?interdiction de causer des maux superflus, font l?objet d?interpr?tations divergentes et d?abondantes controverses doctrinales.

 

Le principe de distinction entre civils et combattants, par exemple, ne peut se traduire par un code commandant ? la machine de tirer sur le combattant et pas sur le civil. D?une part parce que les civils deviennent des combattants (ill?gaux) aussit?t qu?ils ? participent directement aux hostilit?s ? ? une notion tellement complexe que le CICR a d? r?diger un Guide interpr?tatif d?une centaine de pages pour tenter de la clarifier ? et, d?autre part, parce qu?il n?est pas toujours pertinent de tirer sur un combattant : on peut avoir des raisons strat?giques ou tactiques de ne pas le faire.

 

Quant ? l?absence d??motions, elle est au moins autant un inconv?nient qu?un avantage, puisque si les ?motions jouent effectivement un r?le dans le fait de commettre certains crimes de guerre, elles sous-tendent aussi des actes moraux. Des ?tudes montrent que des humains incapables de ressentir des ?motions ? un peu comme les robots ? ? cause d?un dommage c?r?bral sont ? excessivement utilitaristes ? et incapables de produire de bons jugements ?thiques.

 

Ceux qui pensent pouvoir rendre les robots ? ?thiques ? en comptant pr?cis?ment sur leur absence d??motions confondent la moralit? et l?application de r?gles. Or, le DIH n??tant pas un ensemble de r?gles univoques, il n?a de sens que dans le cadre du ? particularisme moral ? selon lequel nos jugements s?effectuent au cas par cas ? ce que les robots ne peuvent pas faire.

 

Autrement dit, les RLA sont incapables de respecter le DIH, qui n?cessite des qualit?s interpr?tatives proprement humaines. Ayant par ailleurs d?autres faiblesses, dont une vuln?rabilit? au piratage, on peut conclure qu?une machine pleinement autonome poserait un risque consid?rable non seulement aux civils, mais aussi aux combattants de l??tat utilisateur. Sans compter la question cruciale de la responsabilit? ? ? qui incombe celle du tir d?un robot autonome ? ? ? laquelle il n?y a pas pour l?instant de r?ponse satisfaisante.

 

On peut donc vouloir en interdire le d?veloppement, la production et l?usage. Reste ? savoir comment et ce n?est pas le moindre des d?fis des prochaines ann?es.

Source :Lettres au Devoir?

Commentaires

commentaires

A propos de

avatar

Check Also

Plus ça change, moins ça change…

La ministre de la transition écologique était l’invitée d’Ali Baddou, sur l’antenne de France Inter, ...