Tech

Des milliers de travailleurs de Google demandent à leur patron « d’abandonner l’industrie de la guerre »

Des milliers d’employésde Google ont signé une pétition réclamant à l’entreprise de cesser decollaborer avec le gouvernement américain sur un projet associant intelligenceartificielle, reconnaissance d’images et drones militaires, qui pourrait aboutir à des frappes par drone.

Plusieurs médias ont eneffet rapporté que l’intelligence artificielle de Google était utilisée par ledépartement de la Défense américain dans le cadre deson « projet Maven ». Ce projet, lancé en 2017, vise à accélérer ledéploiement de l’intelligence artificielle (IA) de pointe au sein de l’armée. Ilvise en particulier à mieux intégrer le big data et l’apprentissage machinepour améliorer le ciblage des frappes de drones.

L’utilisation de l’IA pourinterpréter des vidéos permet de scruter avec précision des millions d’heuresde films et de mieux identifier les cibles humaines d’une attaque, afin deréduire le nombre de victimes collatérales de ces attaques.

« Google ne devrait pas s’impliquer dans l’industrie de la guerre »

Dansleur lettre ouverte, intitulée « Nous travaillons pour Google. Notreemployeur ne devrait pas s’impliquer dans l’industrie de la guerre », les 3.100travailleurs de Google exhortent le CEO de l’entreprise, Sundar Pichai, à abandonnerce projet, en introduisant le sujet de cette manière : « Nous pensons queGoogle ne devrait pas s’impliquer dans l’industrie de la guerre ». 

Mais leur courrierne se contente pas de demander le retrait du programme actuel ; il réclameégalement d’éviter de s’impliquer dans ce type de contrat à l’avenir.

« Nous réclamons lasuppression du projet Maven, et que Google élabore, publie et fasse respecterune politique claire établissant que ni Google, ni ses contracteurs neconstruiront jamais de technologies de guerre », affirme le courrier.

Google : « des objectifs non offensifs »

Mais il est trèsimprobable que Google accède à ce souhait. L’entreprise a été consultée pourconcurrencer Amazon et Microsoft dans le cadre d’appels d’offres visant àpourvoir les services du cloud pour le Pentagone pour son « EnterpriseDefense Infrastructure Cloud procurement program ». Or, selon leresponsable du département, ce programme est conçu pour « augmenter lalétalité et la promptitude ».

Google a répondu enexpliquant que la technologie utilisée par le département de la Défense « viseà sauver des vies et à épargner un travail hautement fastidieux à des personnes ». L’entreprise a affirmé en août que sa participation dans le projet Maven était « spécifiquement modelée pour n’intégrer que des objectifs non inoffensifs ».

La combinaison de l’IA et de l’armée soulève de plus en plus de questions

Hasards ducalendrier, la lettre ouverte des employés de Google coïncide avec le refus d’ungroupe de 50 scientifiques éminents dansle domaine de l’intelligence artificielle de participer au projet de l’universitésud-coréenne KAIST dedéveloppement d’armes autonomes pour le compte de  la firme d’armementHanwha Systems.

Au fur et à mesureque l’intelligence artificielle se développe, et que ses applications pratiquesse multiplient, les questions éthiques qu’elle soulève taraudent de plus enplus les chercheurs et les développeurs qui conçoivent ces systèmes. Cela estparticulièrement vrai lorsque ces développements portent sur la conception d’armements. 

Ainsi, en août de l’annéedernière, 160 entrepreneurs et chercheurs pionniers de la robotique et del’intelligence artificielle, dont Elon Musk de Tesla et Mustafa Suleyman deDeepmind, ont interpellé les Nations Unies en réclamant l’interdictiondes robots tueurs. Dans leur lettre ouverte, le groupe demande àl’ONU d’ajouter les systèmes autonomes à une liste d’armes « moralementmauvaises », qui comprend déjà les armes chimiques et les lasersaveuglants.

© US Air Force

Show More
Close
Close