Permis de tuer pour les intelligences artificielles ?
« C’est pas moi, c’est le caillou ! » s’excuse l’enfant devant la vitre brisée… Situation anodine qui prête à sourire. Et pourtant. Quand un système de surveillance automatique de frontière ouvrira le feu et tuera des êtres humains, qui sera le responsable ? L’imprudent qui aura franchi les barrières ? La balle qui l’aura tué ? Le technicien qui aura allumé la machine ? L’ingénieur qui aura conçu le système ? L’informaticien qui aura écrit le programme ? Le politique qui aura décidé d’utiliser le dispositif ? La question n’est déjà plus théorique…
DES ARMES AUTONOMES
Depuis plus de dix ans, des dispositifs de surveillance automatiques sont utilisés, par exemple à la frontière coréenne. Ils demandent encore l’autorisation d’humains pour tirer, mais disposent d’un mode automatique et pourraient donc s’en passer. On parle alors de « système d’armes létales autonomes » ou plus explicitement de « robots tueurs autonomes ». Ce domaine de recherche en intelligence artificielle est au cœur des préoccupations des fabricants d’armes (voir encadré 1), posant de graves questions éthiques (encadré 2) et techniques (encadré 3). Cependant, la peur de freiner le développement économique lié à l’intelligence artificielle fait fermer les yeux sur le danger de ses applications militaires. Mars et Mammon font toujours bon ménage.
SURSAUT NÉCESSAIRE
Face à ce danger, un sursaut de conscience collective est nécessaire. Ainsi dès 2015, près de 20 000 spécialistes en intelligence artificielle ou personnes se sentant concernées, comme le physicien Stephen Hawking ou le cofondateur d’Apple Steve Wozniak, ont demandé l’arrêt des recherches sur les systèmes autonomes capables de tuer. Plus récemment, emboîtant le pas à un groupe d’experts de l’ONU, l’Union Européenne a adopté le 12 septembre 2018 une résolution demandant l’interdiction des systèmes d’armes létales autonomes. Elle demande notamment aux différents pays d’Europe de travailler au lancement de négociations internationales, afin d’obtenir un accord contraignant pour les interdire. Cela ne pourra avoir lieu que si les populations soutiennent cette action. Rien n’empêche d’en parler à nos députés !
RÉSISTER À LA COURSE À L’ABÎME
Face à cette volonté de non-armement, l’argument essentiel des défenseurs de robots tueurs est très simple : si d’autres pays le font (Chine, Russie, USA), alors il faut les imiter pour survivre. Un nouveau type de course à l’armement, en somme. Espérons que l’humanité aura le courage de résister à cette tentation. Espérons que les Églises sauront jouer leur rôle et s’élever contre une nouvelle course à l’abîme.
Le prophète Amos mettait déjà en garde (6.3) : « Vous cherchez à reculer le jour du malheur, en réalité, vous rapprochez le règne de la violence. »
1. INTELLIGENCE ARTIFICIELLE ET FABRICANTS D’ARMES
Salon Eurosatory, Paris, juin 2018, le plus important salon d’armement d’Europe. Le « meilleur » endroit pour savoir quelles seront les armes de demain… Une conférence par jour était consacrée à l’intelligence artificielle et à ses applications, notamment militaires, mais d’autres réunions ont évoqué, par exemple, « l’emploi des systèmes automatisés », les « robots sentinelles » ou la « guerre par procuration » (confiée à des machines). En 2020, le thème sera sans aucun doute encore à l’honneur : la page d’accueil du site de l’événement montre un petit robot humanoïde en treillis… tout un programme.
Plus clairement encore, l’entreprise Kalachnikov a annoncé l’utilisation d’une technologie d’apprentissage automatique pour permettre à un module de combat « d’identifier des cibles, de s’améliorer par l’expérience et de décider par lui-même des tirs à effectuer »… (SR)
2. QUESTIONS ÉTHIQUES
Peut-on donner à une machine le droit de décider d’ôter la vie ? Qui sera responsable si une machine perpétue des crimes de guerre ? Une intelligence artificielle n’est pas en mesure de respecter les « lois de la guerre ». Il n’est pas possible de dire à un robot : voici les règles à appliquer. Enfin, si une machine devenait capable d’appliquer des lois morales, aurions-nous encore le droit d’en faire notre esclave ? (SR)
3. QUESTIONS TECHNIQUES
Les robots tueurs autonomes utilisent des algorithmes de décisions (=qui aident à la décision). Or, ces algorithmes peuvent se révéler faillibles. Comment éviter un bug qui conduirait un robot à s’attaquer à tout être humain ? Plus grave, ces systèmes pourraient être la cible de piratage informatique. Enfin, les systèmes tueurs utilisent des technologies assez largement diffusées et des logiciels qui, mis au point, seraient faciles à dupliquer. Ce qui ouvre un vaste champ d’application à des personnes mal intentionnées… (SR)