Sundar Pichai

© EPA

Tech

Des milliers de travailleurs de Google demandent à leur patron "d'abandonner l'industrie de la guerre"

Des milliers d’employés de Google ont signé une pétition réclamant à l’entreprise de cesser de collaborer avec le gouvernement américain sur un projet associant intelligence artificielle, reconnaissance d’images et drones militaires, qui pourrait aboutir à des frappes par drone.

Plusieurs médias ont en effet rapporté que l’intelligence artificielle de Google était utilisée par le département de la Défense américain dans le cadre de son « projet Maven ». Ce projet, lancé en 2017, vise à accélérer le déploiement de l’intelligence artificielle (IA) de pointe au sein de l’armée. Il vise en particulier à mieux intégrer le big data et l’apprentissage machine pour améliorer le ciblage des frappes de drones.

L'utilisation de l'IA pour interpréter des vidéos permet de scruter avec précision des millions d’heures de films et de mieux identifier les cibles humaines d'une attaque, afin de réduire le nombre de victimes collatérales de ces attaques.

"Google ne devrait pas s'impliquer dans l'industrie de la guerre"

Dans leur lettre ouverte, intitulée "Nous travaillons pour Google. Notre employeur ne devrait pas s’impliquer dans l’industrie de la guerre", les 3.100 travailleurs de Google exhortent le CEO de l’entreprise, Sundar Pichai, à abandonner ce projet, en introduisant le sujet de cette manière : "Nous pensons que Google ne devrait pas s’impliquer dans l’industrie de la guerre". 

Mais leur courrier ne se contente pas de demander le retrait du programme actuel ; il réclame également d’éviter de s’impliquer dans ce type de contrat à l’avenir.

"Nous réclamons la suppression du projet Maven, et que Google élabore, publie et fasse respecter une politique claire établissant que ni Google, ni ses contracteurs ne construiront jamais de technologies de guerre", affirme le courrier.

Google : "des objectifs non offensifs"

Mais il est très improbable que Google accède à ce souhait. L’entreprise a été consultée pour concurrencer Amazon et Microsoft dans le cadre d’appels d’offres visant à pourvoir les services du cloud pour le Pentagone pour son "Enterprise Defense Infrastructure Cloud procurement program". Or, selon le responsable du département, ce programme est conçu pour "augmenter la létalité et la promptitude".

Google a répondu en expliquant que la technologie utilisée par le département de la Défense "vise à sauver des vies et à épargner un travail hautement fastidieux à des personnes". L’entreprise a affirmé en août que sa participation dans le projet Maven était "spécifiquement modelée pour n’intégrer que des objectifs non inoffensifs".

La combinaison de l'IA et de l'armée soulève de plus en plus de questions

Hasards du calendrier, la lettre ouverte des employés de Google coïncide avec le refus d’un groupe de 50 scientifiques éminents dans le domaine de l’intelligence artificielle de participer au projet de l’université sud-coréenne KAIST de développement d’armes autonomes pour le compte de  la firme d’armement Hanwha Systems.

Au fur et à mesure que l’intelligence artificielle se développe, et que ses applications pratiques se multiplient, les questions éthiques qu’elle soulève taraudent de plus en plus les chercheurs et les développeurs qui conçoivent ces systèmes. Cela est particulièrement vrai lorsque ces développements portent sur la conception d’armements.  

Ainsi, en août de l’année dernière, 160 entrepreneurs et chercheurs pionniers de la robotique et de l’intelligence artificielle, dont Elon Musk de Tesla et Mustafa Suleyman de Deepmind, ont interpellé les Nations Unies en réclamant l’interdiction des robots tueurs. Dans leur lettre ouverte, le groupe demande à l’ONU d'ajouter les systèmes autonomes à une liste d’armes "moralement mauvaises", qui comprend déjà les armes chimiques et les lasers aveuglants.

troops analysing footage

© US Air Force

Sur le même sujet :