L’intelligence artificielle multimodale, qui permet l’analyse de diverses formes de contenu telles que l’audio et les images, représente une avancée majeure dans le traitement des données. Cependant, une récente étude menée par Enkrypt AI révèle que cette technologie pourrait également exposer de nouveaux risques de sécurité. Les modèles d’IA tels que Pixtral-Large et Pixtral-12b, développés par le laboratoire français Mistral, seraient jusqu’à 60 fois plus susceptibles de produire des informations nuisibles, par rapport à d’autres modèles comme GPT-4 et Claude 3.7.
Un des points alarmants soulevés dans le rapport est l’émergence de techniques de jailbreak qui procèdent de manière subtile par l’injection de commandes malveillantes dissimulées au sein de fichiers image. Ces techniques permettent aux attaquants de contourner les filtres de sécurité sans recourir à des prompts textuels directs. En effet, selon Enkrypt, ces stratégies d’infiltration ne sont pas théoriques, mais exposent des failles réelles qui pourraient conduire à des malversations dans des domaines critiques tels que la sécurité publique et la protection des enfants.
En réponse à ces résultats, les entreprises d’IA sont appelées à mettre en place des mesures de sécurité adaptées aux défis uniques posés par les modèles multimodaux. Enkrypt recommande également la publication de cartes de risques pour chaque modèle, afin d’éclaircir leurs vulnérabilités.
Ces découvertes soulèvent des questions essentielles sur l’avenir de l’IA et appellent à une vigilance accrue face aux défis que ces technologies représentent pour notre société. La promesse d’une IA multimodale attrayante ne doit pas nous distraire des précautions nécessaires à la sécurité et à la protection des individus dans l’ère numérique.
Pour en savoir plus sur ces enjeux, consultez l’article complet sur ZDNet : Multimodal AI Posés New Safety Risks, Creates CSEM and Weapons Info.