Deepseek étiquetera désormais tous les contenus générés par l’AI-AI

Le développeur de l’IA chinois Deepseek vient d’annoncer un changement de politique majeur. Cette décision pourrait établir une nouvelle norme pour la transparence de l’IA à travers le monde. À la suite de nouveaux règlements gouvernementaux, la société exige maintenant que tous les contenus générés sur sa plate-forme soient clairement et définitivement marqués comme artificiels, à partir de Chine.

Politique de l’IA de la Chine: Pourquoi Deepseek étiquette maintenant tout le contenu de l’IA

Ce nouveau mandat est un système à double couche. Premièrement, il existe les marqueurs visibles – des étiquettes de texte comme «Génération AI», des annonces audio ou des graphiques distincts qui sont faciles à repérer pour quiconque. Ces marqueurs doivent être affichés en bonne place, par exemple, au début d’un texte, dans la zone de lecture d’une vidéo, ou comme une invite vocale en audio. Ensuite, il y a les marqueurs techniques cachés, qui sont intégrés au plus profond des métadonnées du contenu. Ces marqueurs cachés contiennent des informations critiques comme le type de contenu, la société qui les a produites et un numéro d’identification unique. Il s’agit de s’assurer que le contenu est entièrement traçable à son origine.

Deepseek prend cela très au sérieux. Les utilisateurs sont strictement interdits de modifier, de supprimer ou de truquer ces étiquettes de quelque manière que ce soit. Cette interdiction s’étend à l’utilisation de tous les outils ou services conçus pour aider les gens à contourner ces règles. La société a même indiqué clairement que toute violation pourrait entraîner de graves conséquences juridiques.

Deepseek partage des ressources de transparence

Pour promouvoir davantage la transparence et la compréhension du public, Deepseek a également publié un guide technique détaillé. Ce document explique comment leurs modèles d’IA sont formés, les données qu’ils utilisent et l’ensemble du processus derrière la création de contenu. Cette décision fait partie d’un effort plus large du gouvernement chinois pour équilibrer son ambition de mener dans la technologie de l’IA avec un solide cadre de surveillance sociale et de gouvernance.

Ce développement signale un passage d’une large surveillance de l’IA à une gouvernance de contenu détaillée. Il présente sans aucun doute certains défis opérationnels pour des entreprises comme Deepseek. Cependant, cela établit également un précédent que d’autres pays pourraient bientôt suivre. Cela pourrait forcer les développeurs internationaux d’IA à adapter leurs produits à différents environnements réglementaires à travers le monde. Il reste à voir si d’autres pays prennent des mesures législatives similaires pour la responsabilité de l’IA.