(…) « Le magazine Time révèle d'une part qu'OpenAI a utilisé des prestataires kenyans pour rendre ChatGPT moins toxique. Moins toxique ? Oui car GPT-3, le moteur de ChatGPT, a montré par le passé une capacité peu enviable à débiter des remarques violentes, sexistes et racistes. Pour "éduquer" l'IA, OpenAI a donc du mettre en place un mécanisme de sécurité supplémentaire afin de proposer un chatbot. (…) Et là, pas de surprise, pas d'invention, pas de recette magique. A l'image des réseaux sociaux, ce sont des modérateurs traumatisés qui ont rectifié le savoir vivre de ChatGPT avant qu'OpenAI n'ose le proposer au public.« (…) « OpenAI a donc envoyé des dizaines de milliers de bribes de texte à une entreprise de sous-traitance au Kenya, nommée Sama, à partir de novembre 2021. Evidemment, ce dataset contenait des propos terribles, dont des récits d'abus sexuels sur des enfants, de meurtre, de suicide, ou encore de torture. Sama de son côté se présente comme une entreprise d'"IA éthique" et affirme avoir contribué à sortir plus de 50 000 personnes de la pauvreté. Les employés de Sam employés sur le projet d'OpenAI recevaient un salaire compris entre 1,32 et 2 dollars de l'heure. » (…) « Ces travailleurs du clic, qui ont rendu ChatGPT présentable, jouent un rôle essentiel dans la chaîne de valeur de l'IA. Car au delà des poste de data scientist, des compétences d'ingénieurs de la donnée, ce sont ces armées de travailleurs qui enrichissent les données. Des armées souvent invisibles, masquées par les innovations techniques mises en avant par les géants de la tech.«
-