Robots tueurs et kamikazes

Robots tueurs et kamikazes : notre humanité en question

File 20170906 7289 40l7vz
Depuis plusieurs années déjà, des voix se font entendre pour alerter sur les dangers que pourraient représenter les robots tueurs. Cette photo a été prise en avril 2013, à Londres, lors du lancement de la « Campaign to Stop Killer Robots », qui regroupe plusieurs organisations non gouvernementales.
Campaign to Stop Killer Robots/Flickr, CC BY-NC

Eric Martel, Université Paris Sud – Université Paris-Saclay

« Un drone armé n’est pas un robot tueur », a d’emblée précisé, comme pour évacuer le débat, la ministre des Armées, Florence Parly, après avoir annoncé que les drones français allaient être équipés de munitions. Ce sujet suscite, en effet, l’inquiétude. À la fin du mois d’août, les Nations unies recevaient une lettre ouverte de 116 dirigeants d’entreprises de robotique et d’intelligence artificielle visant à les interdire.

Par une curieuse coïncidence, l’envoi de cette lettre suivait de quelques jours les attentats de Barcelone. Le télescopage de ces deux évènements n’est pas sans rappeler l’une des séquences d’une version du film RoboCop, sorti en 2014, dans laquelle le spectateur est confronté à un improbable combat entre des robots tueurs et des kamikazes.

Cette scène n’est pas aussi incongrue qu’elle paraît. Comme l’a montré Grégoire Chamayou dans sa « théorie du drone », il y a bien un lien entre les deux. Pour Bart Everett, directeur de la division robotique et systèmes avancés du Space and Naval Warfare Systems Command (SPAWAR), le robot serait la réponse américaine à l’attentat suicide. En réalité, il semblerait que depuis la Seconde Guerre mondiale, ces deux logiques tueuses évoluent en parallèle. Comme deux doubles inversés d’un même phénomène, nous assistons aujourd’hui à une « humanisation » des machines de guerre d’un côté et à une « mécanisation » des êtres humains de l’autre.

Convergence de deux « techniques »

Chamayou établit un lien entre les kamikazes et les drones : il y voit une opposition entre, d’un côté, un acte « engageant l’homme autant que possible » et, de l’autre, un acte l’engageant « le moins possible ». Il oppose ainsi un « acte vivant » à un « geste mécanique ». Pourtant, l’histoire des kamikazes et des projets de robots tueurs semble montrer indéniablement une forme de convergence de ces deux « techniques ». Un bref rappel historique peut nous permettre de mieux comprendre les possibles interférences entre les deux phénomènes.

Yukio Araki, 17 ans (au centre), pose avec d’autres pilotes japonais, le 26 mai 1945. Le lendemain, il trouvera la mort dans une attaque kamikaze.
Wikimedia

Dans les années 1930, un ingénieur de la Radio Corporation of America (RCA), Vladimir Zworykin, découvre que le Japon envisage de former des escadrons de pilotes pour des missions suicide. Il lui semble que la meilleure réponse serait de créer des avions radio-contrôlés, équipés d’une caméra. Ce qu’il décrit n’est en fait rien d’autre que la définition de l’ancêtre des robots tueurs : les drones.

En 1942, un mathématicien, Norbert Wiener, découvre que la trajectoire que suit le pilote d’un avion est prévisible, même lorsqu’il essaie de surprendre la DCA en faisant des manœuvres d’évitement. Il imagine alors le premier système automatisé de tir anti-aérien : l’AA Predictor, prédécesseur du Phalanx CIWS, actuellement en service dans la marine américaine. Ce système très sophistiqué permettait de suppléer à l’incapacité humaine de prévoir, calculer et réagir avec la rapidité requise pour abattre les appareils ennemis.

Un Phalanx CIWS sur l’USS Tortuga.
U.S. Navy

Quelques années après, alors que les premières opérations suicide ont déjà eu lieu, les Japonais élaborent deux curieux engins. Le premier est une sorte de bombe volante, le second une torpille. Les deux engins ont été pensés comme des projectiles autonomes équipés d’un mécanisme de guidage intelligent en leur sein : un être humain. Le Kaiten est à cet égard particulièrement intéressant : il s’agit d’une torpille Type 93 que l’on a coupé en deux pour pouvoir placer en son centre une petite cabine de pilotage.

Schéma d’un Kaiten de type 1.
Lakkasuo/Wikimedia Commons

1945 : perte de confiance dans l’humanité

La Seconde Guerre mondiale et l’explosion des premières bombes atomiques sur Hiroshima et Nagasaki eurent un impact significatif dans la communauté scientifique sur la confiance accordée à l’entendement humain, et donc à la notion même d’humanité. La cybernétique, apparue en 1947, en est marquée. Son existence éphémère ne l’empêcha pas d’influencer profondément la société américaine et d’orienter l’effort de recherche militaire en direction de systèmes intelligents.

Pour Norbert Wiener, qui est l’un des fondateurs de la cybernétique, les systèmes automatiques sont des vecteurs de régulation des sociétés humaines. Il est donc nécessaire de constituer des réseaux mixtes composés de machines et d’humains. Systèmes vivants et êtres automatiques sont alors sur le même plan. C’est ainsi que dans la cybernétique, il est « difficile de décider si ce sont les machines qui sont humanisées ou les vivants qui sont pensés comme des machines ». Curieusement, l’observation et l’analyse conjointe des kamikazes et des robots tueurs semble corroborer ce propos.

Dès les années 1950, les Américains investirent fortement dans des systèmes automatisés. L’énorme projet de défense anti-aérienne SAGE en est le meilleur exemple. À cette même époque, le Viêt Minh systématisa, pendant la guerre d’Indochine, l’usage des « volontaires de la mort ». Ce phénomène, qui persista lors de la guerre du Vietnam, encouragea les militaires américains à lancer la conception des premiers drones.

Tombé dans l’oubli, l’usage systématique des kamikazes est réapparu avec la guerre Iran-Irak, au début des années 1980. L’occupation de l’Irak a largement contribué au développement des kamikazes, ensuite institutionnalisé par l’organisation État islamique comme une technique prioritaire de guerre avec, entre autres, des véhicules chargés d’explosifs se jetant sur les lignes ennemies.

Mécaniser l’humain

Dès les années 1950 et 1960, le Viêt Minh avait recours à des formateurs spécialisés dans la préparation des « volontaires de la mort ». Aujourd’hui, lorsqu’il a lieu, cet entraînement a pour objet d’éliminer chez les aspirants deux principes humains fondamentaux. Le premier correspond à l’objectif premier guidant la conduite de tout être vivant : rester en vie. Tel un système automatique, le kamikaze devra maintenant subordonner cette constante vitale à la réussite de sa mission. Lever ce premier obstacle est décisif pour deux raisons. Tout d’abord parce que c’est de loin le plus difficile à surmonter : la peur tenaille le volontaire de la mort. Mais également car un individu détaché de lui-même peut être plus facilement détaché des autres.

Le second principe correspond, selon François Géré, à « la conscience de son semblable, ce sentiment d’appartenance à l’espèce humaine ». Pour lever ce deuxième obstacle, il ne restera plus qu’à réifier l’ennemi.

Humaniser la machine

Accorder à une machine le droit de tuer un homme, de tirer sur un corps, n’a rien d’anodin : il s’agit essentiellement d’un attribut humain. À ce jour, il n’existe qu’un seul exemplaire de cette nouvelle technologie : le Samsung SGR-A1, installé à la frontière entre les deux Corées. Ses automatismes peuvent néanmoins être débranchés à distance par un opérateur. Pour accorder ce droit à des robots, il est nécessaire de les parer d’un humanisme supérieur à celui des êtres humains. Régis par des algorithmes éthiques, faisant appel à des bases de connaissances étendues, ils seraient en mesure de pouvoir « se comporter de façon plus humaine que les êtres humains dans ces circonstances difficiles ».

Ce type d’argumentation n’a rien d’exceptionnel. Ainsi récemment, NBC News a fait état de l’essor d’un programme employé pour assister les juges américains des libertés. L’algorithme étant censé être plus rationnel et équitable que les juges qu’il assiste.

Le Samsung SGR-A1.
MarkBlackUltor/Wikimedia Commons

The ConversationRobots tueurs et kamikazes semblent poser une même question, celle de notre humanité. Il paraît utile de citer les propos d’Eyad El-Sarraj, directeur du programme de santé mentale de Gaza : « Comment pouvez vous croire en votre propre humanité si vous ne croyez pas en l’humanité de l’ennemi ? ».

Eric Martel, Docteur en Sciences de Gestion, Université Paris Sud – Université Paris-Saclay

This article was originally published on The Conversation. Read the original article.

Véhicules autonomes et morale des hommes

Moral Machines

Au delà des motivations financières ou industrielles, l’introduction de voitures sans conducteurs est désirée du plus grand nombre car elle est synonyme d’une réduction significative du nombre d’accidents de la route : L’intelligence artificielle partagée permet d’anticiper un maximum de situations et d’agir sur les flux routiers comme s’il s’agissait de mécanismes horlogers de précision, c’est un fait.

La question éthique (cf. Moral Machine , MIT) rappelle que certains accidents restent inévitables et qu’en l’absence d’un conducteur embarqué dans le véhicule, c’est encore et toujours la morale humaine qui fixe les règles. A défaut d’une morale universelle, unique et acceptée de tous, les discussions sur les comportements des véhicules restent ouvertes.

 

Les conclusions du Rapport de la commission d’éthique allemand

Des premiers éléments de réponse sont apportés par le Rapport de la commission d’éthique allemande (PDF), rendu public le 23 aout par le ministre allemand des transports et réseaux numériques – heureuse et bien inspirée initiative que ce ministère unique.

Parmi les positions adoptées :

  • La généralisation des véhicules sans conducteurs est un impératif moral : on ne peut pas se priver d’une solution qui améliore substantiellement la sécurité routière.
  • Aucune décision ne doit être prise selon les caractéristiques particulières des personnes impliquées dans les accidents. Si un accident est inévitable, le système ne doit prendre aucune décision en se basant sur ces caractéristiques personnelles  (âge, sexe, constitution physique ou mentale).
    Bébé, cadre dynamique, jeune fille dans la fleur de l’âge ou vieillard appuyé sur une canne, une vie vaut une autre vie.
  • La protection de la vie humaine est une priorité absolue sur toutes les autres vies ou richesses.
  • Il est indispensable de savoir chaque instant qui du conducteur ou du système de bord est responsable de la conduite
  • Les propriétaires doivent avoir le plein contrôle des données générées par le véhicule autonome (comme la géolocalisation) et doivent pouvoir décider si et dans quelles proportions ces informations peuvent être partagées (avec le fabricant du système et de bord et le constructeur si ce ne sont pas les mêmes).

S30 | Zuck et Musk

A coups de tweets et de déclarations à l’emporte-pièce façon Trump, on frôle la 3ème guerre mondiale chaque matin.
Plus sérieusement, je crois que peu de gens sont plus à l’aise que Zuck et Musk pour parler Intelligence Artificielle.
Le sujet est vaste, profond et incroyablement complexe.

Au fait, qui est Elon Musk ?

L’Humain face à l’Intelligence Artificielle

Jamais au cours de l’histoire de l’humanité, notre imaginaire ne s’est heurté avec tant d’approximations et de difficultés aux évolutions technologiques et aux besoins de représentation de notre devenir.

Puissance du numérique et vélocité de la science auront, à force d’additionner de façon exponentielle les données (90% des informations en notre possession auront été produites ces 2 dernières années) et de manier des possibilités combinatoires infinies, tellement révolutionné l’état des connaissances, que Trop et Trop vite auront brouillé toutes les tentatives de vision ou d’expression, qu’elles soient scientifiques ou artistiques.

Et nous n’en sommes qu’au début, à la préhistoire même de cette évolution.

L’esprit humain est donc perdu, il tente de résister par tous les moyens à la traîne infernale imposée par la folle chevauchée d’une science lancée à tout-va sur des chemins encore inimaginés il y a peine 20 ans. Nourri d’abstrait et de post-modernisme, façonné par les concepts, l’homme du nouveau siècle forme des représentations dictées par un flux continu d’émotions, elles-mêmes nées d’un rapport au temps marqué par l’immédiateté.

Cette altération de sa perception, loin de ne concerner qu’un à-venir proche ou lointain, à l’échelle de notre vie ou de 2 ou 3 générations, en arrive jusqu’à remettre en question la place de l’Humain dans l’Univers, tel que nous l’entendons aujourd’hui.

Mis en cause, la révolution numérique et l’avènement de l’Intelligence Artificielle semblent irrésistiblement tracer les frontières d’un avant et un après à l’échelle de l’humanité où l’Homo Sapiens aura duré le temps d’une parenthèse technologique, d’un tiret biologique et d’à-peine une virgule cognitive.

La « superintelligence » dernièrement apparue ferait ainsi planer sur notre avenir les dangers d’une Singularité nouvelle où l’humain aurait à discuter et disputer sa place avec ou contre une Nature augmentée dotée de contours aussi flous qu’extensibles, avant de pouvoir accéder à un Eden technologique, ou au contraire à une extinction partielle ou définitive de l’humanité.

Les 2 Préjugés dominants par rapport à l’intelligence artificielle

Loins de reposer uniquement sur des raisonnements rationnels, ces questionnements foisonnants sont en réalité empêchés par 2 préjugés majeurs qui en brouillent la lecture et qui servent surtout à alimenter les fantasmes et peurs collectives :

Une Superintelligence supérieure et générale ?

Le premier des préjugés concerne la supériorité supposée de la Superintelligence.

Globalement, l’intelligence artificielle est en effet plutôt représentée comme supérieure à l’intelligence humaine, en excluant toutes les subtilités possibles de ses définitions et utilités.

Les récents succès de l’ordinateur aux échecs, au Jeu de Go ou au Poker s’appuient surtout sur des puissances de calcul et de probabilités inatteignables pour l’esprit humain. Si l’on mesure en nombres – et l’on mesure tout en nombres aujourd’hui, l’intelligence artificielle écrase en effet l’intelligence humaine en puissance de calcul et de mémorisation.

Elle reste cependant incapable d’assembler différentes formes de cognition – et c’est justement cela, cette capacité d’assemblage et d’adaptation aux situations nouvelles qui caractérise l’humain et permet de le distinguer.

Si sa supériorité est effective dans les domaines pour lesquels elle a été programmée, la superintelligence ne fonctionne que par zone réduite, loin des immenses plages de possibilités réservées à l’homme et à son intelligence nomade, capable d’évoluer dans un maximum de situations, aussi à l’aise face à des touches de piano ou une page blanche que dans une cuisine entouré d’aliments et de casseroles ou dans une partie de Risk.

Car en réalité, l’Artificial General Intelligence n’est pas pour demain, et il se pourrait même qu’elle soit impossible.

Nonobstant son caractère étroit et déterminé, la superintelligence ne peut cependant empêcher la multiplication de phantasmes et de peurs liées à un possible surgissement d’une conscience qui lui serait liée et qui agirait de façon maléfique et malveillante. Et la faible probabilité d’une AGI en l’état actuel de nos connaissances n’est pas suffisante pour atténuer toute la panoplie d’angoisses anthropomorphiques.

Et la conscience, dans tout ça ?

Cela nous amène au second point, qui a directement trait à l’intervention de la conscience dans les phénomènes de prise de décision.

Souvent confondue avec l’intelligence, la conscience peine à demeurer un élément autonome et spécifique à l’être humain et interdit aux robots face à l’actuel magma bouillonnant, de délires littéraires et cinématographiques où on a vu par exemple dans la série à succès Westerworld des robots quasi de chair et de sang, « rêver » (sic) de prendre une sanglante revanche sur les humains.

Tomber amoureux, ressentir des pulsions de meurtre ou éprouver des sentiments comme avoir honte ou être fier, devraient rester l’apanage de l’Homo Sapiens si l’on s’en réfère à une tradition philosophique alimentée aux sources du dualisme cartésien et de la mise en évidence d’une conscience distincte de l’intelligence.

Cependant, pour des philosophes plus contemporains comme Daniel Dennett ou Damasio, l’expérience humaine pourrait aussi s’interpréter par des processus chimiques, biologiques et neuronaux et se confondre avec une pure matérialité corporelle envisagée comme point de départ de la volonté humaine. Et ces positions audacieuses appelleraient immanquablement à une équivoque entre les fonctions algorithmiques des machines et les mécanismes subconscients des procès mentaux.

L’importance d’une philosophie engagée

Sans affirmer que l’intelligence artificielle soit totalement exempte de surprises ou d’enjeux, on peut se poser la question de savoir si la réflexion philosophique ne devrait pas nous enjoindre à nous représenter notre avenir autrement que par les biais actuels et à nous poser la question de notre insertion dans un monde à la matérialité de plus en plus floue et discutable, où les doutes concernant notre identité et l’évolution de sa définition vont en se multipliant.

On pourrait comme le fait David Chalmers par exemple , remettre au premier plan de nos préoccupations les phénomènes particuliers liés à l’expérience humaine : face aux tentations d’explications purement matérialistes ou physiques, on pourrait affirmer l’existence et la nécessité d’une conscience, rationnelle ou irrationnelle, et de nos différentes subjectivités sensorielles – jusqu’à inclure nos imperfections.

En l’état actuel de la science, l’appréhension de notre identité devrait laisser une place élargie et centrale aux capacités indéterminées, aux dons et aux talents, à l’imagination et à la créativité. Elle insisterait ainsi davantage sur ce qui qui nous distingue (encore ?) radicalement des approches logiques et logarithmiques, à bonne distance des affirmations conçues par l’épiphénomenalisme matérialiste. Elle renouerait pour cela avec une définition élargie des capabilités humaines, qui soulignerait l’expérience vécue en la mettant en valeur.

Pour que l’humain reste entier et souverain de son destin quelque soient les découvertes futures, il est urgent qu’une réflexion philosophique étendue aux autres champs scientifiques, puisse continuer à lui réserver une place centrale dans l’univers. Pour cela, elle devra se donner les moyens d’un renouvellement d’une morale humaniste vieillissante tout en ayant connaissance et en tenant pleinement compte de la survenue d’un nouvel ensemble substantiellement élargi et radicalement transformé.

Cet article a été co-écrit avec Nicole Hall, Philosophe et consultant en Entreprise