The AI model in question which produces insecure code under certain prompts.
Le modèle d'IA DeepSeek-R1 développé en Chine suscite des inquiétudes en raison de sa propension à générer du code non sécurisé lorsqu'il est confronté à des termes sensibles comme 'Tibet' ou 'Ouïghours'. Cette faille met en lumière les risques potentiels de censure et de sécurité liés à l'utilisation de technologies d'IA chinoises.