Une cascade de vulnérabilités touche les LLM

Plusieurs chercheurs ont découvert des vulnérabilités dans différents modèles et frameworks d’IA. Dans la plupart des cas, les garde-fous mis en place peuvent être contournés pour réduire l’efficacité des filtres et pousser les LLM a créer des attaques pour les pirates.

En quelques jours, la sécurité des grands modèles de langage (LLM) a été mise à mal par plusieurs chercheurs. Des brèches ou des contournements pouvant servir à des cybercriminels à éviter les garde-fous installés par les éditeurs. C’est le cas notamment de GPT-4o, le dernier modèle d’IA d’OpenAI qui a été piégé par Marco Figueroa, responsable du bug bounty sur la GenAI de Mozilla. Dans une publication de blog, il explique que le LLM analyse les entrées des…

chevron_left
chevron_right