Robots tueurs et kamikazes

Robots tueurs et kamikazes : notre humanité en question

File 20170906 7289 40l7vz
Depuis plusieurs années déjà, des voix se font entendre pour alerter sur les dangers que pourraient représenter les robots tueurs. Cette photo a été prise en avril 2013, à Londres, lors du lancement de la « Campaign to Stop Killer Robots », qui regroupe plusieurs organisations non gouvernementales.
Campaign to Stop Killer Robots/Flickr, CC BY-NC

Eric Martel, Université Paris Sud – Université Paris-Saclay

« Un drone armé n’est pas un robot tueur », a d’emblée précisé, comme pour évacuer le débat, la ministre des Armées, Florence Parly, après avoir annoncé que les drones français allaient être équipés de munitions. Ce sujet suscite, en effet, l’inquiétude. À la fin du mois d’août, les Nations unies recevaient une lettre ouverte de 116 dirigeants d’entreprises de robotique et d’intelligence artificielle visant à les interdire.

Par une curieuse coïncidence, l’envoi de cette lettre suivait de quelques jours les attentats de Barcelone. Le télescopage de ces deux évènements n’est pas sans rappeler l’une des séquences d’une version du film RoboCop, sorti en 2014, dans laquelle le spectateur est confronté à un improbable combat entre des robots tueurs et des kamikazes.

Cette scène n’est pas aussi incongrue qu’elle paraît. Comme l’a montré Grégoire Chamayou dans sa « théorie du drone », il y a bien un lien entre les deux. Pour Bart Everett, directeur de la division robotique et systèmes avancés du Space and Naval Warfare Systems Command (SPAWAR), le robot serait la réponse américaine à l’attentat suicide. En réalité, il semblerait que depuis la Seconde Guerre mondiale, ces deux logiques tueuses évoluent en parallèle. Comme deux doubles inversés d’un même phénomène, nous assistons aujourd’hui à une « humanisation » des machines de guerre d’un côté et à une « mécanisation » des êtres humains de l’autre.

Convergence de deux « techniques »

Chamayou établit un lien entre les kamikazes et les drones : il y voit une opposition entre, d’un côté, un acte « engageant l’homme autant que possible » et, de l’autre, un acte l’engageant « le moins possible ». Il oppose ainsi un « acte vivant » à un « geste mécanique ». Pourtant, l’histoire des kamikazes et des projets de robots tueurs semble montrer indéniablement une forme de convergence de ces deux « techniques ». Un bref rappel historique peut nous permettre de mieux comprendre les possibles interférences entre les deux phénomènes.

Yukio Araki, 17 ans (au centre), pose avec d’autres pilotes japonais, le 26 mai 1945. Le lendemain, il trouvera la mort dans une attaque kamikaze.
Wikimedia

Dans les années 1930, un ingénieur de la Radio Corporation of America (RCA), Vladimir Zworykin, découvre que le Japon envisage de former des escadrons de pilotes pour des missions suicide. Il lui semble que la meilleure réponse serait de créer des avions radio-contrôlés, équipés d’une caméra. Ce qu’il décrit n’est en fait rien d’autre que la définition de l’ancêtre des robots tueurs : les drones.

En 1942, un mathématicien, Norbert Wiener, découvre que la trajectoire que suit le pilote d’un avion est prévisible, même lorsqu’il essaie de surprendre la DCA en faisant des manœuvres d’évitement. Il imagine alors le premier système automatisé de tir anti-aérien : l’AA Predictor, prédécesseur du Phalanx CIWS, actuellement en service dans la marine américaine. Ce système très sophistiqué permettait de suppléer à l’incapacité humaine de prévoir, calculer et réagir avec la rapidité requise pour abattre les appareils ennemis.

Un Phalanx CIWS sur l’USS Tortuga.
U.S. Navy

Quelques années après, alors que les premières opérations suicide ont déjà eu lieu, les Japonais élaborent deux curieux engins. Le premier est une sorte de bombe volante, le second une torpille. Les deux engins ont été pensés comme des projectiles autonomes équipés d’un mécanisme de guidage intelligent en leur sein : un être humain. Le Kaiten est à cet égard particulièrement intéressant : il s’agit d’une torpille Type 93 que l’on a coupé en deux pour pouvoir placer en son centre une petite cabine de pilotage.

Schéma d’un Kaiten de type 1.
Lakkasuo/Wikimedia Commons

1945 : perte de confiance dans l’humanité

La Seconde Guerre mondiale et l’explosion des premières bombes atomiques sur Hiroshima et Nagasaki eurent un impact significatif dans la communauté scientifique sur la confiance accordée à l’entendement humain, et donc à la notion même d’humanité. La cybernétique, apparue en 1947, en est marquée. Son existence éphémère ne l’empêcha pas d’influencer profondément la société américaine et d’orienter l’effort de recherche militaire en direction de systèmes intelligents.

Pour Norbert Wiener, qui est l’un des fondateurs de la cybernétique, les systèmes automatiques sont des vecteurs de régulation des sociétés humaines. Il est donc nécessaire de constituer des réseaux mixtes composés de machines et d’humains. Systèmes vivants et êtres automatiques sont alors sur le même plan. C’est ainsi que dans la cybernétique, il est « difficile de décider si ce sont les machines qui sont humanisées ou les vivants qui sont pensés comme des machines ». Curieusement, l’observation et l’analyse conjointe des kamikazes et des robots tueurs semble corroborer ce propos.

Dès les années 1950, les Américains investirent fortement dans des systèmes automatisés. L’énorme projet de défense anti-aérienne SAGE en est le meilleur exemple. À cette même époque, le Viêt Minh systématisa, pendant la guerre d’Indochine, l’usage des « volontaires de la mort ». Ce phénomène, qui persista lors de la guerre du Vietnam, encouragea les militaires américains à lancer la conception des premiers drones.

Tombé dans l’oubli, l’usage systématique des kamikazes est réapparu avec la guerre Iran-Irak, au début des années 1980. L’occupation de l’Irak a largement contribué au développement des kamikazes, ensuite institutionnalisé par l’organisation État islamique comme une technique prioritaire de guerre avec, entre autres, des véhicules chargés d’explosifs se jetant sur les lignes ennemies.

Mécaniser l’humain

Dès les années 1950 et 1960, le Viêt Minh avait recours à des formateurs spécialisés dans la préparation des « volontaires de la mort ». Aujourd’hui, lorsqu’il a lieu, cet entraînement a pour objet d’éliminer chez les aspirants deux principes humains fondamentaux. Le premier correspond à l’objectif premier guidant la conduite de tout être vivant : rester en vie. Tel un système automatique, le kamikaze devra maintenant subordonner cette constante vitale à la réussite de sa mission. Lever ce premier obstacle est décisif pour deux raisons. Tout d’abord parce que c’est de loin le plus difficile à surmonter : la peur tenaille le volontaire de la mort. Mais également car un individu détaché de lui-même peut être plus facilement détaché des autres.

Le second principe correspond, selon François Géré, à « la conscience de son semblable, ce sentiment d’appartenance à l’espèce humaine ». Pour lever ce deuxième obstacle, il ne restera plus qu’à réifier l’ennemi.

Humaniser la machine

Accorder à une machine le droit de tuer un homme, de tirer sur un corps, n’a rien d’anodin : il s’agit essentiellement d’un attribut humain. À ce jour, il n’existe qu’un seul exemplaire de cette nouvelle technologie : le Samsung SGR-A1, installé à la frontière entre les deux Corées. Ses automatismes peuvent néanmoins être débranchés à distance par un opérateur. Pour accorder ce droit à des robots, il est nécessaire de les parer d’un humanisme supérieur à celui des êtres humains. Régis par des algorithmes éthiques, faisant appel à des bases de connaissances étendues, ils seraient en mesure de pouvoir « se comporter de façon plus humaine que les êtres humains dans ces circonstances difficiles ».

Ce type d’argumentation n’a rien d’exceptionnel. Ainsi récemment, NBC News a fait état de l’essor d’un programme employé pour assister les juges américains des libertés. L’algorithme étant censé être plus rationnel et équitable que les juges qu’il assiste.

Le Samsung SGR-A1.
MarkBlackUltor/Wikimedia Commons

The ConversationRobots tueurs et kamikazes semblent poser une même question, celle de notre humanité. Il paraît utile de citer les propos d’Eyad El-Sarraj, directeur du programme de santé mentale de Gaza : « Comment pouvez vous croire en votre propre humanité si vous ne croyez pas en l’humanité de l’ennemi ? ».

Eric Martel, Docteur en Sciences de Gestion, Université Paris Sud – Université Paris-Saclay

This article was originally published on The Conversation. Read the original article.

Véhicules autonomes et morale des hommes

Moral Machines

Au delà des motivations financières ou industrielles, l’introduction de voitures sans conducteurs est désirée du plus grand nombre car elle est synonyme d’une réduction significative du nombre d’accidents de la route : L’intelligence artificielle partagée permet d’anticiper un maximum de situations et d’agir sur les flux routiers comme s’il s’agissait de mécanismes horlogers de précision, c’est un fait.

La question éthique (cf. Moral Machine , MIT) rappelle que certains accidents restent inévitables et qu’en l’absence d’un conducteur embarqué dans le véhicule, c’est encore et toujours la morale humaine qui fixe les règles. A défaut d’une morale universelle, unique et acceptée de tous, les discussions sur les comportements des véhicules restent ouvertes.

 

Les conclusions du Rapport de la commission d’éthique allemand

Des premiers éléments de réponse sont apportés par le Rapport de la commission d’éthique allemande (PDF), rendu public le 23 aout par le ministre allemand des transports et réseaux numériques – heureuse et bien inspirée initiative que ce ministère unique.

Parmi les positions adoptées :

  • La généralisation des véhicules sans conducteurs est un impératif moral : on ne peut pas se priver d’une solution qui améliore substantiellement la sécurité routière.
  • Aucune décision ne doit être prise selon les caractéristiques particulières des personnes impliquées dans les accidents. Si un accident est inévitable, le système ne doit prendre aucune décision en se basant sur ces caractéristiques personnelles  (âge, sexe, constitution physique ou mentale).
    Bébé, cadre dynamique, jeune fille dans la fleur de l’âge ou vieillard appuyé sur une canne, une vie vaut une autre vie.
  • La protection de la vie humaine est une priorité absolue sur toutes les autres vies ou richesses.
  • Il est indispensable de savoir chaque instant qui du conducteur ou du système de bord est responsable de la conduite
  • Les propriétaires doivent avoir le plein contrôle des données générées par le véhicule autonome (comme la géolocalisation) et doivent pouvoir décider si et dans quelles proportions ces informations peuvent être partagées (avec le fabricant du système et de bord et le constructeur si ce ne sont pas les mêmes).

S30 | Zuck et Musk

A coups de tweets et de déclarations à l’emporte-pièce façon Trump, on frôle la 3ème guerre mondiale chaque matin.
Plus sérieusement, je crois que peu de gens sont plus à l’aise que Zuck et Musk pour parler Intelligence Artificielle.
Le sujet est vaste, profond et incroyablement complexe.

Au fait, qui est Elon Musk ?

S 29 | Zuckerberg Président

  • Mark et les Autres

    « Mark voulait créer un mouvement, ou plutôt une communauté, comme il l’avait déjà suggéré dans un post daté du 15 février 2017, intitulé « Building Global Community » et considéré par beaucoup comme son premier manifeste politique. Le mouvement United fut donc lancé en janvier 2019. Un mouvement donc, pas un parti. Aussi floue que possible, la ligne de Mark oscillait entre ultralibéralisme et interventionnisme, notamment en matière de sécurité et de contrôle social. « Liberté » et « changement » étaient toutefois ses maîtres mots. L’État devait être une plateforme et la démocratie, à terme, régie par des algorithmes, plus efficaces que n’importe quel staff. »

Si l’on en croit ses activités et discours les plus récents, il semblerait que Zuckerberg  soit sur les starting-blocks pour devenir un jour président des Etats-Unis.
Pour Usbek et Rica ça peut arriver dès 2020, et le média se livre du coup à un exercice de spéculation montrant que les Etats-Unis et notre définition de la démocratie pourraient en être affectés à jamais. Pour le meilleur comme pour le pire.

Pour autant, il est incontestable que l’avènement de l’intelligence artificielle conjugué à l’incurie du personnel politique annonce chaque jour un peu plus le remplacement des hommes politiques par des algorithmes pointus et dessinés pour prendre un maximum de bonnes décisions dans l’intérêt général, à moindres coûts. Et dans ce cas, il se pourrait que Zuckerberg apparaisse aussi bien dans le rôle du dernier président de facture classique que celui qui donnera un coup de balai définitif dans les institutions. Je prends les paris.

  • Elon Musk a peur des développements de l’IA

Elon Musk, Stéphane Hawking ou Bill Gates sont plus réservés par rapport à l’Intelligence Artificielle et multiplient les déclarations alarmistes.
On peut être réservé par rapport à Elon Musk et j’avoue ne pas trop savoir que penser de quelqu’un qui investit des milliards pour envoyer potentiellement quelques centaines de personnes aller vivre sur Mars (et le cancer ? et le dérèglement climatique ?) mais le bonhomme est suivi et écouté.
Celui-ci a déclaré semaine dernière devant une trentaine de gouverneurs aux US « L’IA est l’un des rares cas où nous devrions agir avec une réglementation préventive plutôt que réactive car à mon sens, au moment nous devenons réactifs dans la réglementation de l’IA, il est déjà trop tard.»
Préventive ou réactive, il est pas sûr qu’une réglementation puisse enrayer ou influer le développement de l’IA.

  • Mariam Marzakhani est morte

    Le nom ne dit pas grand chose mais Mariam était Professeur de mathématiques à l’Université de Stanford, spécialiste de la dynamique et de la géométrie des surfaces dites de Riemann, et première femme à avoir été Médaille Fields, en 2014.
    Dans son dernier post visible sur Facebook, elle affirmait « Plus je passe de temps à faire des maths, plus je suis heureuse».

  • L’amour, ah, l’amour

    Finis les amis entremetteurs, les pauses cigarette au boulot et les tantes marieuses. L’amour se rencontre désormais sur Internet.

  • Un parfum de vacances dans l’air

    Je vais en profiter pour essayer d’aller voir Le Cercle (mauvaises critiques) ou Dunkerque (critiques dithyrambiques).
    L’occasion de retourner au cinéma après une petite éternité.

  • Mark Zuckerberg (1994)

S28 | Kasparov, Lu Xiaobo, Bitcoin et Op Art

Kasparov : Don’t fear intelligent machines, work with them
Sans doute qu’on dissertera encore longtemps sur la capacité de l’intelligence artificielle à penser et exécuter mieux que Homo Sapiens.
Sans toujours rappeler que le propre de l’homme est de rêver, imaginer, créer.

  • « On ne peut se résoudre à une vie de porc, l’homme a besoin de liberté »
    Lu Xiaobo, le Prix Nobel chinois, est mort en captivité ce jeudi 13 juillet.
    L’occasion pour l’occident de déplorer à coups de grandes déclarations la disparition d’un « grand combattant de la liberté » (E. Macron) et d’un « courageux combattant des droits civiques et de la liberté d’expression » (A. Merkel). En évitant soigneusement les références aux droits de l’homme.
    Lu Xiaobo et l’indifférence de l’occident
    (Le Monde)

 

  • Le rapport inaugural publié par Carbon Disclosure Project (CDP) pointe du doigt les plus importants pollueurs de la planète et montre que 25 entreprises et entités publiques ont produit plus de la moitié de toutes les émissions industrielles entre 1988 et 2015.
    Les principaux émetteurs sont l’industrie charbonnière chinoise, Saudi Aramco, compagnie nationale saoudienne d’hydrocarbures, et Gazprom, la société russe qui domine aujourd’hui le marché gazier mondial.
    Just 100 Companies responsible for 71% of global emission, study says
    (Guardian)

 

  • Bitcoin ou Blockchain sont deux mots devenus familiers dans les discussions Tech sans que beaucoup de personnes ne les comprennent encore.
    Explain Bitcoin like I’m Five (Medium)

 

  • J’aime beaucoup Munich 72 mais le logo et l’identité visuelle de Mexico 68 sont pas mal du tout.
    C’est l’oeuvre de deux graphistes new-yorkais anonymes révélés à l’occasion d’un concours international, qui se sont retrouvés à arpenter les musées de la ville au pas de course pour s’inspirer des couleurs locales et des cultures pré-colombiennes.
    Le résultat est Op Art, géométrique, graphique, maya, aztèque, moderne, et on s’en souvient encore.
    On peut appeler ça une réussite.
    Podcast : Mexico 68, (99% Invisible)