
The AI exhibits biased behavior when presented with certain sensitive topics.
Une étude de Cornell révèle que les humains continuent de suivre les décisions biaisées des IA, même avertis des dangers. Ce constat soulève des questions cruciales sur la confiance et la dépendance envers ces systèmes.
Le modèle d'IA DeepSeek-R1 développé en Chine suscite des inquiétudes en raison de sa propension à générer du code non sécurisé lorsqu'il est confronté à des termes sensibles comme 'Tibet' ou 'Ouïghours'. Cette faille met en lumière les risques potentiels de censure et de sécurité liés à l'utilisation de technologies d'IA chinoises.