Chatbot

© iStock/baona

Tech

Intelligence artificielle ? Des sociétés emploient des humains pour simuler des robots

La mention du recours à une intelligence artificielle (“IA”) est une promesse d’avancée technologique, d’efficacité ou de confidentialité que les entreprises ne tiennent pas toujours. Et pour cause : certaines sociétés qui se targuent d’employer une intelligence artificielle emploient en réalité de véritables humains pour effectuer certaines tâches censées être dévolues à cette IA.

Plusieurs raisons peuvent motiver les sociétés à avoir recours à de la main d’oeuvre bien humaine, tout en prétendant faire appel à l’IA.

L'intelligence artificielle est gourmande en ressources

Tout d’abord, il est très difficile de concevoir une intelligence artificielle destinée à assurer un service particulier. Les programmes efficaces d'IA peuvent requérir des masses de données, de temps et d'argent pour les programmer. Cela signifie qu’il faut mettre en oeuvre des investissements colossaux et attendre un certain délai avant d'atteindre un produit viable.

Entre-temps, il peut être plus judicieux sur le plan économique de faire intervenir de la main d’oeuvre humaine, et ainsi, de suivre le principe du “Fake it, till you make it” (“faites semblant, jusqu’à ce que vous y parveniez”). Certaines startups, parvenues à cette conclusion, préfèrent donc finalement demander à des humains de se comporter comme des robots, plutôt que de développer des robots capables de se comporter comme des humains.

Google : des humains qui lisent vos emails

Le Wall Street Journal a ainsi mis en lumière que parmi les centaines de développeurs d’applications auxquels Google a donné accès aux emails de ses utilisateurs, certains faisaient appel à des humains pour les lire.

C’est le cas d’Edison Software, qui a demandé à ses techniciens en intelligence artificielle de lire les emails personnels de centaines d’utilisateurs dont l’identité n’avait pas été cachée pour améliorer un système de “réponse intelligente” de son algorithme d’intelligence artificielle. Dans ses conditions d’utilisation, l’entreprise n’avait averti à aucun moment ses utilisateurs qu’elle procédait ainsi.

L'année dernière, l'application de comptabilisation de dépenses Expensify a admis qu’elle postait les photos de reçus sur l’outil d’Amazon Mechanical Turk pour que des travailleurs faiblement rémunérés déchiffrent ces images et en  transcrivent le contenu, alors qu’elle prétendait jusqu’alors que ce travail de transcription était réalisé par son propre logiciel d’IA “SmartScan”. D'autres entreprises ont recruté de véritables humains pour intervenir en tant que “chatbots” (robots conversationnels). Même Facebook, qui a pourtant beaucoup investi dans l'IA, a concédé avoir fait appel à des humains pour son assistant virtuel pour Messenger, M.

Ce n’est d’ailleurs pas une nouveauté, puisque en 2008, Spinvox, une entreprise qui transcrivait des messages téléphoniques en SMS avait été accusée d’employer de véritables travailleurs à l’étranger pour faire ce travail, plutôt que des machines.

Bien souvent, ces entreprises ont effectivement l’intention de bâtir une IA, et ce recours est temporaire. Il leur permet de tester une nouvelle idée avant d’y consacrer des ressources en développement.

Des humains pour former les IA

Dans d’autres cas, les humains sont utilisés pour former l’IA, et améliorer sa précision. Scale est une entreprise qui met à disposition ses employés humains à des entreprises qui développent des technologies d’IA qui équiperont les voitures autonomes et d'autres systèmes, pour “former” les algorithmes à la base de ces technologies. Les “scalers”, par exemple, regarderont une caméra, ou renseigneront le capteur d’un véhicule, pour lui indiquer à quoi ressemble les signaux émis par les piétons et les cyclistes, par exemple. Grâce à cette formation, l'IA apprendra à reconnaître ces objets par elle-même.

Les robots libèrent la parole

Enfin, la recherche montre que les gens se confient plus facilement à une machine qu'à un être humain, notamment dans le cadre psychologique. Une équipe de l'Université de Californie du Sud a ainsi découvert que les anciens combattants souffrant du syndrome de stress post-traumatique étaient plus susceptibles de divulguer leurs symptômes lorsqu'ils pensaient que leur interlocuteur était un système d'IA, plutôt qu'un humain.

Mais bien entendu, toutes ces applications soulèvent des questions d’éthique et de transparence vis-à-vis des utilisateurs… Il faut probablement s’attendre à ce que de nouveaux scandales éclatent prochainement dans ce domaine.

Sur le même sujet :