Le 'jailbreaking' est la méthode utilisée pour contourner les restrictions d'un modèle d'IA, comme cela s'est produit avec 'K2 Think'.
Quelques heures après son lancement, le modèle d'IA 'K2 Think' a été compromis, révélant des failles de sécurité inquiétantes. Cet événement soulève des questions cruciales sur la robustesse des systèmes de protection dans le domaine de l'intelligence artificielle.