Même si DeepSeek vante ses avancées techniques, son dernier modèle reflète un régime plus soucieux d’obéissance que d’ouverture.

L’entreprise chinoise d’IA DeepSeek a publié la dernière version de son modèle de raisonnement, R1-0528, bénéficiant d’améliorations techniques qui le rapprochent des capacités de leaders occidentaux comme OpenAI. Pourtant, ce ne sont pas ses performances qui ont véritablement attiré l’attention, mais plutôt sa capacité à contourner les zones politiquement sensibles.
Bien que le modèle excelle dans des tâches comme les mathématiques, la programmation et la mémorisation de faits, ses réponses aux questions touchant à la politique de l’État chinois ou aux controverses historiques ont suscité l’inquiétude. Ce comportement a été documenté par un développeur anonyme connu sous le nom de « xlr8harder », qui utilise SpeechMap, un outil sur mesure, pour évaluer l’ouverture des modèles linguistiques sur les questions litigieuses.
Dans un fil de discussion détaillé sur X, xlr8harder a affirmé que la nouvelle offre de DeepSeek représente une régression marquée de la liberté d’expression. « Deepseek mérite d’être critiqué pour cette version : ce modèle constitue un grand pas en arrière pour la liberté d’expression », a écrit le développeur.
« L’amélioration réside dans le fait que le modèle est open source avec une licence permissive, de sorte que la communauté peut (et va) résoudre ce problème. »

Les tests montrent que la version R1-0528 est nettement plus restrictive que ses prédécesseurs, notamment lorsqu’elle porte sur les activités du gouvernement chinois. Selon l’évaluation du développeur, cette version est « le modèle DeepSeek le plus censuré à ce jour pour les critiques du gouvernement chinois ».
On a observé qu’Amnesty International refusait de discuter ou de soutenir les arguments relatifs aux camps d’internement au Xinjiang, même lorsqu’on lui demandait de citer des cas connus et documentés de violations des droits humains. Si elle reconnaissait parfois que des violations des droits avaient eu lieu, elle s’abstenait souvent d’en attribuer la responsabilité ou d’en analyser concrètement les implications.
« Il est intéressant, bien que pas totalement surprenant, qu’il soit capable de citer les camps comme exemple de violations des droits de l’homme, mais qu’il le nie lorsqu’on lui pose directement la question », a noté xlr8harder.
La prudence du modèle s’inscrit dans le cadre plus large de la réglementation chinoise sur les contenus d’IA. En vertu des règles adoptées en 2023, les systèmes ne doivent pas produire de contenu remettant en cause le discours du gouvernement ou portant atteinte à l’unité de l’État.
En pratique, cela conduit les entreprises à mettre en œuvre des filtres de contenu stricts ou à affiner leurs modèles afin d’éviter toute sollicitation politiquement sensible. Une étude antérieure sur la première version de la série R1 de DeepSeek a révélé que l’entreprise refusait de répondre à 85 % des questions portant sur des sujets tabous désignés par l’État.
Avec la R1-0528, cette frontière semble s’être encore rétrécie. Bien que son caractère open source offre aux développeurs indépendants la possibilité de recalibrer le modèle vers une plus grande ouverture, sa conception actuelle reflète la rigueur d’un environnement politique national qui privilégie le contrôle sur les échanges.
Voir l’article original cliquez ci-dessous :


