14 $ : le prix payé par une société d’IA pour des vidéos de pieds humains marchant dans la rue ; 50 centimes la minute, la compensation offerte par Neon Mobile à ceux qui vendent leurs appels téléphoniques. Avant de nous enlever définitivement nos emplois, l’intelligence artificielle nous les donne : partout sur la planète, des milliers de personnes forment des modèles d’IA pour quelques dizaines ou centaines de dollars, vendant leur image, leurs conversations et leurs vidéos privées.
The Guardian a enquêté sur le côté obscur de cette pratique de plus en plus fréquente, qui derrière l’illusion de l’argent facile cache des écueils bien plus profonds qui concernent notre future vie privée.
De l’Inde aux USA : la carte des nouveaux travailleurs de l’IA
Afrique du Sud, Inde, États-Unis : des formateurs en IA interrogés par Tuteur ils vivent aux quatre coins du monde, en particulier dans les pays les moins développés où quelques dollars peuvent couvrir les dépenses d’une semaine.
Avec plus de 100 dollars par mois qu’il gagne en téléchargeant des pistes audio de sa propre voix et en donnant à Silencio (une application qui collecte des données audio pour entraîner l’IA) l’accès au microphone de son smartphone pour enregistrer les sons environnementaux, Sahil Tigga, un Indien de 22 ans, mange pendant un mois. Ramelio Hill, un jeune de dix-huit ans originaire de Chicago, a plutôt vendu des heures de conversations privées avec sa famille et ses amis à Neon Mobile pour quelques centaines de dollars.
Mais quel est le prix caché de ces emplois « pour faire des extras » ?
Le visage et la voix pris en otage par les robots
Il faut d’abord comprendre que le formateur n’est qu’un métier à court, très court terme, sans perspective d’avenir : il est né en réponse à un besoin temporaire. sécheresse des donnéescomme le Tuteuret se terminera dès que le système se sera réhydraté. Les conséquences pour les formateurs pourraient cependant être bien plus durables.
Sur certaines plateformes, les contrats sont irrévocables et ne prévoient pas de redevances : un audio de 20 minutes peut alimenter un robot pendant des années sans que le formateur ne soit payé un centime de plus ; son visage pourrait se retrouver dans une base de données de reconnaissance faciale ou dans une publicité à l’autre bout du monde.
Selon Jennifer King, experte en confidentialité des données à l’Institut Stanford pour l’intelligence artificielle centrée sur l’humain, ce qui est inquiétant est que les plateformes ne précisent pas comment et où les données des utilisateurs seront utilisées : « les consommateurs risquent de voir leurs données réutilisées d’une manière qu’ils n’aiment pas, qu’ils n’ont pas comprise ou à laquelle ils ne s’attendaient pas ».
Au-delà des clauses : le Deepfake « devenu incontrôlable »
Même lorsqu’une plus grande protection est obtenue, le risque est toujours présent. Le cas de l’acteur new-yorkais Adam Coy est emblématique, qui a vendu en 2024 son image pour 1 000 dollars à Captions, un éditeur de vidéo basé sur l’IA : le contrat garantissait que son identité ne serait pas utilisée à des fins politiques, pour faire de la publicité pour l’alcool, le tabac ou la pornographie, et que la licence expirait au bout d’un an.
Toutes les conditions sont réunies : il est dommage que quelques temps plus tard, ses amis aient commencé à lui envoyer des reels Instagram dans lesquels son deepfake faisait la publicité de suppléments médicaux non vérifiés pour les femmes enceintes et post-partum. Coy n’a pas vendu son image depuis, mais il ne l’exclurait pas si on lui proposait des honoraires très élevés. Et vous, vendriez-vous votre identité au plus offrant ?
