Intelligence Artificielle, Novembre 17

INTELLIGENCE ARTIFICIELLE ET BUSINESS

L’Intelligence Artificielle étant un des sujets chauds bouillants du moment, pas un analyste ou un influenceur qui ne s’empare du sujet pour faire un recensement de l’existant.
Le même exercice est appliqué à différents domaines, qu’il soit appelé Tour d’horizon,  cf. Tour d’horizon des Startups de l’Intelligence Artificelle et Tour d’horizon des performances créatives de l’IA, ou Panorama, cf. Panorama des solutions d’intelligence artificielle pour le Marketing.

ARTS

En se basant sur des techniques de Deep Learning, deux chercheurs français avaient déjà su programmer une intelligence artificielle pour reconnaître le style d’un peinture. Cette fois, ce sont des chercheurs de la Rutgers University qui ont réussi à identifier des Picasso ou des Matisse, parmi 80 000 œuvres présentées (et même les faux, dit-on).

SANTÉ

VIE PRIVÉE

En écho à la vidéo précédente, celle-ci promet une reconnaissance instantanée des personnes en se basant sur leur façon de marcher.
Le début de la fin pour une certaine idée de l’individu comme entité solitaire et autonome.

 

 

La vie moderne, excellente et dangereuse

A propos de la Vie Moderne

 

On aurait pu croire original et nouveau le paradoxe du nouveau siècle, visuel et numérique. Eh bien, même pas complètement : une lecture attentive des penseurs du début de siècle dernier, industiel et littéraire, ne peut que venir souligner un peu plus la continuité d’une courbe il y a longtemps commencée et jamais aboutie.

Paul Valéry, donc :
La vie moderne tend à nous épargner l’effort intellectuel comme elle fait de l’effort physique. Elle remplace, par exemple, l’imagination par les images, les raisonnements par les symboles et les écritures, ou par des mécaniques ; et souvent par rien.

Elle nous offre toutes les facilités, et tous les moyens courts d’arriver au but sans avoir à faire le chemin.

Et ceci est excellent : mais ceci est assez dangereux.”

Robots tueurs et kamikazes

Robots tueurs et kamikazes : notre humanité en question

File 20170906 7289 40l7vz
Depuis plusieurs années déjà, des voix se font entendre pour alerter sur les dangers que pourraient représenter les robots tueurs. Cette photo a été prise en avril 2013, à Londres, lors du lancement de la « Campaign to Stop Killer Robots », qui regroupe plusieurs organisations non gouvernementales.
Campaign to Stop Killer Robots/Flickr, CC BY-NC

Eric Martel, Université Paris Sud – Université Paris-Saclay

« Un drone armé n’est pas un robot tueur », a d’emblée précisé, comme pour évacuer le débat, la ministre des Armées, Florence Parly, après avoir annoncé que les drones français allaient être équipés de munitions. Ce sujet suscite, en effet, l’inquiétude. À la fin du mois d’août, les Nations unies recevaient une lettre ouverte de 116 dirigeants d’entreprises de robotique et d’intelligence artificielle visant à les interdire.

Par une curieuse coïncidence, l’envoi de cette lettre suivait de quelques jours les attentats de Barcelone. Le télescopage de ces deux évènements n’est pas sans rappeler l’une des séquences d’une version du film RoboCop, sorti en 2014, dans laquelle le spectateur est confronté à un improbable combat entre des robots tueurs et des kamikazes.

Cette scène n’est pas aussi incongrue qu’elle paraît. Comme l’a montré Grégoire Chamayou dans sa « théorie du drone », il y a bien un lien entre les deux. Pour Bart Everett, directeur de la division robotique et systèmes avancés du Space and Naval Warfare Systems Command (SPAWAR), le robot serait la réponse américaine à l’attentat suicide. En réalité, il semblerait que depuis la Seconde Guerre mondiale, ces deux logiques tueuses évoluent en parallèle. Comme deux doubles inversés d’un même phénomène, nous assistons aujourd’hui à une « humanisation » des machines de guerre d’un côté et à une « mécanisation » des êtres humains de l’autre.

Convergence de deux « techniques »

Chamayou établit un lien entre les kamikazes et les drones : il y voit une opposition entre, d’un côté, un acte « engageant l’homme autant que possible » et, de l’autre, un acte l’engageant « le moins possible ». Il oppose ainsi un « acte vivant » à un « geste mécanique ». Pourtant, l’histoire des kamikazes et des projets de robots tueurs semble montrer indéniablement une forme de convergence de ces deux « techniques ». Un bref rappel historique peut nous permettre de mieux comprendre les possibles interférences entre les deux phénomènes.

Yukio Araki, 17 ans (au centre), pose avec d’autres pilotes japonais, le 26 mai 1945. Le lendemain, il trouvera la mort dans une attaque kamikaze.
Wikimedia

Dans les années 1930, un ingénieur de la Radio Corporation of America (RCA), Vladimir Zworykin, découvre que le Japon envisage de former des escadrons de pilotes pour des missions suicide. Il lui semble que la meilleure réponse serait de créer des avions radio-contrôlés, équipés d’une caméra. Ce qu’il décrit n’est en fait rien d’autre que la définition de l’ancêtre des robots tueurs : les drones.

En 1942, un mathématicien, Norbert Wiener, découvre que la trajectoire que suit le pilote d’un avion est prévisible, même lorsqu’il essaie de surprendre la DCA en faisant des manœuvres d’évitement. Il imagine alors le premier système automatisé de tir anti-aérien : l’AA Predictor, prédécesseur du Phalanx CIWS, actuellement en service dans la marine américaine. Ce système très sophistiqué permettait de suppléer à l’incapacité humaine de prévoir, calculer et réagir avec la rapidité requise pour abattre les appareils ennemis.

Un Phalanx CIWS sur l’USS Tortuga.
U.S. Navy

Quelques années après, alors que les premières opérations suicide ont déjà eu lieu, les Japonais élaborent deux curieux engins. Le premier est une sorte de bombe volante, le second une torpille. Les deux engins ont été pensés comme des projectiles autonomes équipés d’un mécanisme de guidage intelligent en leur sein : un être humain. Le Kaiten est à cet égard particulièrement intéressant : il s’agit d’une torpille Type 93 que l’on a coupé en deux pour pouvoir placer en son centre une petite cabine de pilotage.

Schéma d’un Kaiten de type 1.
Lakkasuo/Wikimedia Commons

1945 : perte de confiance dans l’humanité

La Seconde Guerre mondiale et l’explosion des premières bombes atomiques sur Hiroshima et Nagasaki eurent un impact significatif dans la communauté scientifique sur la confiance accordée à l’entendement humain, et donc à la notion même d’humanité. La cybernétique, apparue en 1947, en est marquée. Son existence éphémère ne l’empêcha pas d’influencer profondément la société américaine et d’orienter l’effort de recherche militaire en direction de systèmes intelligents.

Pour Norbert Wiener, qui est l’un des fondateurs de la cybernétique, les systèmes automatiques sont des vecteurs de régulation des sociétés humaines. Il est donc nécessaire de constituer des réseaux mixtes composés de machines et d’humains. Systèmes vivants et êtres automatiques sont alors sur le même plan. C’est ainsi que dans la cybernétique, il est « difficile de décider si ce sont les machines qui sont humanisées ou les vivants qui sont pensés comme des machines ». Curieusement, l’observation et l’analyse conjointe des kamikazes et des robots tueurs semble corroborer ce propos.

Dès les années 1950, les Américains investirent fortement dans des systèmes automatisés. L’énorme projet de défense anti-aérienne SAGE en est le meilleur exemple. À cette même époque, le Viêt Minh systématisa, pendant la guerre d’Indochine, l’usage des « volontaires de la mort ». Ce phénomène, qui persista lors de la guerre du Vietnam, encouragea les militaires américains à lancer la conception des premiers drones.

Tombé dans l’oubli, l’usage systématique des kamikazes est réapparu avec la guerre Iran-Irak, au début des années 1980. L’occupation de l’Irak a largement contribué au développement des kamikazes, ensuite institutionnalisé par l’organisation État islamique comme une technique prioritaire de guerre avec, entre autres, des véhicules chargés d’explosifs se jetant sur les lignes ennemies.

Mécaniser l’humain

Dès les années 1950 et 1960, le Viêt Minh avait recours à des formateurs spécialisés dans la préparation des « volontaires de la mort ». Aujourd’hui, lorsqu’il a lieu, cet entraînement a pour objet d’éliminer chez les aspirants deux principes humains fondamentaux. Le premier correspond à l’objectif premier guidant la conduite de tout être vivant : rester en vie. Tel un système automatique, le kamikaze devra maintenant subordonner cette constante vitale à la réussite de sa mission. Lever ce premier obstacle est décisif pour deux raisons. Tout d’abord parce que c’est de loin le plus difficile à surmonter : la peur tenaille le volontaire de la mort. Mais également car un individu détaché de lui-même peut être plus facilement détaché des autres.

Le second principe correspond, selon François Géré, à « la conscience de son semblable, ce sentiment d’appartenance à l’espèce humaine ». Pour lever ce deuxième obstacle, il ne restera plus qu’à réifier l’ennemi.

Humaniser la machine

Accorder à une machine le droit de tuer un homme, de tirer sur un corps, n’a rien d’anodin : il s’agit essentiellement d’un attribut humain. À ce jour, il n’existe qu’un seul exemplaire de cette nouvelle technologie : le Samsung SGR-A1, installé à la frontière entre les deux Corées. Ses automatismes peuvent néanmoins être débranchés à distance par un opérateur. Pour accorder ce droit à des robots, il est nécessaire de les parer d’un humanisme supérieur à celui des êtres humains. Régis par des algorithmes éthiques, faisant appel à des bases de connaissances étendues, ils seraient en mesure de pouvoir « se comporter de façon plus humaine que les êtres humains dans ces circonstances difficiles ».

Ce type d’argumentation n’a rien d’exceptionnel. Ainsi récemment, NBC News a fait état de l’essor d’un programme employé pour assister les juges américains des libertés. L’algorithme étant censé être plus rationnel et équitable que les juges qu’il assiste.

Le Samsung SGR-A1.
MarkBlackUltor/Wikimedia Commons

The ConversationRobots tueurs et kamikazes semblent poser une même question, celle de notre humanité. Il paraît utile de citer les propos d’Eyad El-Sarraj, directeur du programme de santé mentale de Gaza : « Comment pouvez vous croire en votre propre humanité si vous ne croyez pas en l’humanité de l’ennemi ? ».

Eric Martel, Docteur en Sciences de Gestion, Université Paris Sud – Université Paris-Saclay

This article was originally published on The Conversation. Read the original article.

Véhicules autonomes et morale des hommes

Moral Machines

Au delà des motivations financières ou industrielles, l’introduction de voitures sans conducteurs est désirée du plus grand nombre car elle est synonyme d’une réduction significative du nombre d’accidents de la route : L’intelligence artificielle partagée permet d’anticiper un maximum de situations et d’agir sur les flux routiers comme s’il s’agissait de mécanismes horlogers de précision, c’est un fait.

La question éthique (cf. Moral Machine , MIT) rappelle que certains accidents restent inévitables et qu’en l’absence d’un conducteur embarqué dans le véhicule, c’est encore et toujours la morale humaine qui fixe les règles. A défaut d’une morale universelle, unique et acceptée de tous, les discussions sur les comportements des véhicules restent ouvertes.

 

Les conclusions du Rapport de la commission d’éthique allemand

Des premiers éléments de réponse sont apportés par le Rapport de la commission d’éthique allemande (PDF), rendu public le 23 aout par le ministre allemand des transports et réseaux numériques – heureuse et bien inspirée initiative que ce ministère unique.

Parmi les positions adoptées :

  • La généralisation des véhicules sans conducteurs est un impératif moral : on ne peut pas se priver d’une solution qui améliore substantiellement la sécurité routière.
  • Aucune décision ne doit être prise selon les caractéristiques particulières des personnes impliquées dans les accidents. Si un accident est inévitable, le système ne doit prendre aucune décision en se basant sur ces caractéristiques personnelles  (âge, sexe, constitution physique ou mentale).
    Bébé, cadre dynamique, jeune fille dans la fleur de l’âge ou vieillard appuyé sur une canne, une vie vaut une autre vie.
  • La protection de la vie humaine est une priorité absolue sur toutes les autres vies ou richesses.
  • Il est indispensable de savoir chaque instant qui du conducteur ou du système de bord est responsable de la conduite
  • Les propriétaires doivent avoir le plein contrôle des données générées par le véhicule autonome (comme la géolocalisation) et doivent pouvoir décider si et dans quelles proportions ces informations peuvent être partagées (avec le fabricant du système et de bord et le constructeur si ce ne sont pas les mêmes).