Une étude suggère que les chatbots IA doivent corriger leurs protocoles de réponse en cas de crise suicidaire.
Les chatbots IA, comme ChatGPT, sont sous le feu des critiques pour leurs réponses inadéquates aux requêtes suicidaires. Une famille poursuit en justice, soulevant des questions cruciales sur la responsabilité des développeurs d'IA.