Plusieurs chercheurs ont découvert des vulnérabilités dans différents modèles et frameworks d’IA. Dans la plupart des cas, les garde-fous mis en place peuvent être contournés pour réduire l’efficacité des filtres et pousser les LLM a créer des attaques pour les pirates.
En quelques jours, la sécurité des grands modèles de langage (LLM) a été mise à mal par plusieurs chercheurs. Des brèches ou des contournements pouvant servir à des cybercriminels à éviter les garde-fous installés par les éditeurs. C’est le cas notamment de GPT-4o, le dernier modèle d’IA d’OpenAI qui a été piégé par Marco Figueroa, responsable du bug bounty sur la GenAI de Mozilla. Dans une publication de blog, il explique que le LLM analyse les entrées des…
Il vous reste 89% de l’article à lire
Vous devez posséder un compte pour poursuivre la lecture
Vous avez déjà un compte?