Dans un monde où les frontières entre le réel et l'artificiel s'estompent, Google DeepMind fait un pas audacieux en ouvrant son outil de filigrane textuel, SynthID, au grand public.
La société a mené une vaste expérience sur l'utilité de son outil de filigrane SynthID en permettant à des millions d'utilisateurs de Gemini de l'évaluer.
23 octobre 2024
!https://wp.technologyreview.com/wp-content/uploads/2024/10/text-watermark1.jpg
Stephanie Arnett/MIT Technology Review | Adobe Stock
Google DeepMind a développé un outil pour identifier le texte généré par l'IA et le rend disponible en open source.
L'outil, appelé SynthID, fait partie d'une famille plus large d'outils de filigrane pour les résultats générés par l'IA. La société a dévoilé un filigrane pour les images l'année dernière, et a depuis déployé un filigrane pour les vidéos générées par l'IA. En mai, Google a annoncé qu'il appliquait SynthID dans son application Gemini et ses chatbots en ligne, et l'a rendu disponible gratuitement sur Hugging Face, un dépôt ouvert de jeux de données et de modèles d'IA. Les filigranes sont devenus un outil important pour aider les gens à déterminer quand quelque chose est généré par l'IA, ce qui pourrait aider à contrer les dommages tels que la désinformation.
"Désormais, d'autres développeurs d'IA [générative] pourront utiliser cette technologie pour les aider à détecter si les résultats textuels proviennent de leurs propres [modèles de langage étendus], ce qui facilitera la création d'une IA responsable pour plus de développeurs", déclare Pushmeet Kohli, vice-président de la recherche chez Google DeepMind.
SynthID fonctionne en ajoutant un filigrane invisible directement dans le texte lorsqu'il est généré par un modèle d'IA.
Les modèles de langage étendus fonctionnent en décomposant le langage en "tokens", puis en prédisant quel token est le plus susceptible de suivre l'autre. Les tokens peuvent être un seul caractère, un mot ou une partie d'une phrase, et chacun reçoit un score en pourcentage pour indiquer la probabilité qu'il soit le mot suivant approprié dans une phrase. Plus le pourcentage est élevé, plus le modèle est susceptible de l'utiliser.
SynthID introduit des informations supplémentaires au moment de la génération en modifiant la probabilité que les tokens soient générés, explique Kohli.
Pour détecter le filigrane et déterminer si le texte a été généré par un outil d'IA, SynthID compare les scores de probabilité attendus pour les mots dans le texte filigrané et non filigrané.
Google DeepMind a constaté que l'utilisation du filigrane SynthID ne compromettait pas la qualité, la précision, la créativité ou la rapidité du texte généré. Cette conclusion a été tirée d'une vaste expérience en direct de la performance de SynthID après que le filigrane a été déployé dans ses produits Gemini et utilisé par des millions de personnes. Gemini permet aux utilisateurs d'évaluer la qualité des réponses du modèle d'IA avec un pouce levé ou un pouce baissé.
Kohli et son équipe ont analysé les scores pour environ 20 millions de réponses de chatbot filigranées et non filigranées. Ils ont constaté que les utilisateurs ne remarquaient pas de différence de qualité et d'utilité entre les deux. Les résultats de cette expérience sont détaillés dans un article publié dans Nature aujourd'hui. Actuellement, SynthID pour le texte ne fonctionne que sur le contenu généré par les modèles de Google, mais l'espoir est qu'en le rendant open source, cela élargira la gamme d'outils avec lesquels il est compatible.
SynthID a d'autres limitations. Le filigrane était résistant à certaines manipulations, telles que le recadrage du texte et les légers ajustements ou réécritures, mais était moins fiable lorsque le texte généré par l'IA avait été réécrit ou traduit d'une langue à une autre. Il est également moins fiable dans les réponses aux demandes d'informations factuelles, telles que la capitale de la France. Cela est dû au fait qu'il y a moins d'occasions d'ajuster la probabilité du prochain mot possible dans une phrase sans changer les faits.
"Obtenir un filigrane fiable et imperceptible pour le texte généré par l'IA est fondamentalement difficile, surtout dans les scénarios où les sorties des modèles de langage étendus sont presque déterministes, comme les questions factuelles ou les tâches de génération de code", déclare Soheil Feizi, professeur associé à l'Université du Maryland, qui a étudié les vulnérabilités du filigrane de l'IA.
Feizi affirme que la décision de Google DeepMind de rendre sa méthode de filigrane open source est un pas positif pour la communauté de l'IA. "Cela permet à la communauté de tester ces détecteurs et d'évaluer leur robustesse dans différents contextes, aidant à mieux comprendre les limites de ces techniques", ajoute-t-il.
Il y a un autre avantage aussi, déclare João Gante, ingénieur en apprentissage automatique chez Hugging Face. Rendre l'outil open source signifie que quiconque peut prendre le code et incorporer le filigrane dans leur modèle sans conditions attachées, déclare Gante. Cela améliorera la confidentialité du filigrane, car seul le propriétaire connaîtra ses secrets cryptographiques.
"Grâce à une meilleure accessibilité et la possibilité de confirmer ses capacités, je veux croire que le filigrane deviendra la norme, ce qui devrait nous aider à détecter l'utilisation malveillante des modèles de langage", déclare Gante.
Mais les filigranes ne sont pas une solution universelle, déclare Irene Solaiman, responsable politique mondiale chez Hugging Face.
"Le filigrane est un aspect des modèles plus sûrs dans un écosystème qui a besoin de nombreux garde-fous complémentaires. En parallèle, même pour le contenu généré par des humains, la vérification des faits a une efficacité variable", dit-elle.
Dans un monde où les frontières entre le réel et l'artificiel s'estompent, Google DeepMind fait un pas audacieux en ouvrant son outil de filigrane textuel, SynthID, au grand public. Voici ce qu'il faut retenir :
- L'Innovation au Cœur de l'IA : SynthID permet d'identifier les textes générés par l'IA en y ajoutant un filigrane invisible. Une avancée technologique majeure pour un secteur en constante évolution.
- Transparence et Open Source : En rendant SynthID accessible, Google DeepMind espère promouvoir une utilisation responsable des modèles de langage, tout en permettant à d'autres développeurs de tester et d'améliorer cette technologie. Comme le souligne Soheil Feizi, cela ouvre la voie à une évaluation critique de la robustesse de ces outils.
- Les Limites de la Technologie : Bien que prometteur, SynthID n'est pas infaillible. Il résiste mal aux traductions et aux réécritures substantielles, et se montre moins efficace sur les faits simples, comme les questions factuelles.
- Impact sur le Secteur des Médias : Cette innovation pourrait transformer la manière dont les médias vérifient l'origine de leurs contenus. Pourtant, comme le rappelle Irene Solaiman, le filigrane n'est qu'une pièce du puzzle dans un écosystème qui nécessite de multiples garde-fous.
- Un Pas vers la Sécurité Numérique : João Gante voit dans cette initiative une opportunité pour standardiser le filigrane, un outil qui pourrait aider à détecter les usages malveillants des modèles de langage.
En somme, cette avancée technologique est une réponse aux défis posés par la désinformation et les contenus générés par l'IA. Elle offre des pistes pour mieux comprendre et maîtriser les outils numériques de demain, tout en rappelant que la route vers la sécurité numérique est semée d'embûches et de défis à relever.
Sources : Google DeepMind, Soheil Feizi, Irene Solaiman, João Gante
Partager cet article :
- WhatsApp : Partager sur WhatsApp
- Facebook : Partager sur Facebook
- LinkedIn : Partager sur LinkedIn
Qui a travaillé sur ce projet ?
Nous sommes des compagnons de route
Nomades, nous développons des compétences techniques et stratégiques complémentaires, au service de nos clients et partenaires. Indépendants, nous nous agrégeons selon la nature et la temporalité des projets que nous initions et auxquels nous contribuons. Nous partageons des valeurs d’honnêteté intellectuelle, de transparence et de confiance mutuelle.
last update :