L'entité qui a proposé des conditions pour l'utilisation létale du chatbot Claude, conditions qui ont été rejetées.
Anthropic a refusé les conditions du Pentagone pour l'utilisation létale de son chatbot Claude, mettant en lumière les préoccupations éthiques liées à l'application militaire de l'IA. Cette décision soulève des questions sur les implications de l'IA dans les systèmes d'armes autonomes.