Le 21 août 2017, 117 fondateurs d'entreprises du secteur de la robotique et de l'intelligence artificielle ont envoyé une lettre ouverte aux Nations unies demandant l'interdiction des armements autonomes. Ils s'alarment du risque posé par les «robots tueurs». Alors que l'armement aujourd'hui est contrôlé, même à distance, par des humains, l'intelligence artificielle permettrait aux armes de déterminer, selon un algorithme, quand attaquer des personnes ou des bâtiments.
Les risques mentionnés incluent le piratage de ces outils de défense et les cyberattaques contre leurs systèmes de contrôle. Les spécialistes demandent donc une réglementation plus stricte pour prévenir ce risque.
Un Groupe européen d'éthique des sciences et des nouvelles technologies (GEE) a été créé par la Commission pour la conseiller dans tous les domaines éthiques, sociétaux et les questions relatives aux droits fondamentaux qui croisent le développement de la science et des nouvelles technologies. En réponse à une question posée le 6 juin 2017, soulignant le manque d'implication du GEE dans la recherche sur les risques de l'intelligence artificielle, la Commission européenne a toutefois noté qu'avec seulement 15 membres, on ne pouvait pas «attendre d'eux qu'ils aient une expertise dans chaque domaine de l'activité humaine».
Compte tenu de ces éléments, la Commission européenne compte-elle apporter des moyens humains supplémentaires au GEE?
