Le profilage d'une minorité par l'IA peut mener à la discrimination.
En 2019, la Chine a utilisé l'intelligence artificielle pour effectuer 500 000 scans faciaux en un mois, révélant une application inquiétante de la technologie pour surveiller et profiler une minorité. Cette saga soulève des questions cruciales sur la vie privée et l'éthique de l'IA.