(…) « Le magazine Time rĂ©vèle d'une part qu'OpenAI a utilisĂ© des prestataires kenyans pour rendre ChatGPT moins toxique. Moins toxique ? Oui car GPT-3, le moteur de ChatGPT, a montrĂ© par le passĂ© une capacitĂ© peu enviable Ă dĂ©biter des remarques violentes, sexistes et racistes. Pour "Ă©duquer" l'IA, OpenAI a donc du mettre en place un mĂ©canisme de sĂ©curitĂ© supplĂ©mentaire afin de proposer un chatbot. (…) Et lĂ , pas de surprise, pas d'invention, pas de recette magique. A l'image des rĂ©seaux sociaux, ce sont des modĂ©rateurs traumatisĂ©s qui ont rectifiĂ© le savoir vivre de ChatGPT avant qu'OpenAI n'ose le proposer au public.« (…) « OpenAI a donc envoyĂ© des dizaines de milliers de bribes de texte Ă une entreprise de sous-traitance au Kenya, nommĂ©e Sama, Ă partir de novembre 2021. Evidemment, ce dataset contenait des propos terribles, dont des rĂ©cits d'abus sexuels sur des enfants, de meurtre, de suicide, ou encore de torture. Sama de son cĂ´tĂ© se prĂ©sente comme une entreprise d'"IA Ă©thique" et affirme avoir contribuĂ© Ă sortir plus de 50 000 personnes de la pauvretĂ©. Les employĂ©s de Sam employĂ©s sur le projet d'OpenAI recevaient un salaire compris entre 1,32 et 2 dollars de l'heure. » (…) « Ces travailleurs du clic, qui ont rendu ChatGPT prĂ©sentable, jouent un rĂ´le essentiel dans la chaĂ®ne de valeur de l'IA. Car au delĂ des poste de data scientist, des compĂ©tences d'ingĂ©nieurs de la donnĂ©e, ce sont ces armĂ©es de travailleurs qui enrichissent les donnĂ©es. Des armĂ©es souvent invisibles, masquĂ©es par les innovations techniques mises en avant par les gĂ©ants de la tech.«Â
-