Le risque que l'IA soit utilisée dans des systèmes d'armes autonomes, ce qui est une préoccupation majeure pour Anthropic.
Anthropic a refusé les conditions du Pentagone pour l'utilisation létale de son chatbot Claude, mettant en lumière les préoccupations éthiques liées à l'application militaire de l'IA. Cette décision soulève des questions sur les implications de l'IA dans les systèmes d'armes autonomes.