L’apprentissage antagoniste explore les vulnérabilités des modèles d’intelligence artificielle et les moyens de s’en défendre. Quelques explications à l’heure du Sommet pour l’action sur l’intelligence artificielle.
Peut-on manipuler une intelligence artificielle (IA) pour qu’elle accomplisse l’inverse de ce pour quoi elle a été conçue ? C’est l’objectif de l’apprentissage antagoniste, une discipline qui explore à la fois les vulnérabilités des modèles d’IA et les moyens de s’en défendre. Que ce soit pour contourner un filtre antispam ou échapper à la reconnaissance faciale, les exemples abondent.
Mais quelles sont ces attaques qui (…)