ClickCease Combattre l'attaque LLMjacking : Protéger les modèles d'IA hébergés dans le cloud

Rejoignez notre populaire bulletin d'information

Rejoignez 4 500+ professionnels de Linux et de l'Open Source !

2 fois par mois. Pas de spam.

Combattre l'attaque LLMjacking : Protéger les modèles d'IA hébergés dans le cloud

Wajahat Raja

21 mai 2024 - L'équipe d'experts de TuxCare

Dans le domaine de la cybersécurité, une nouvelle menace est apparue : le LLMjacking, un type de détournement de l détournement d'IA. Cette méthode d'attaque innovante utilise des identifiants cloud volés pour infiltrer les services de grands modèles de langage (LLM) hébergés dans le cloud, dans le but ultime de colporter l'accès à d'autres acteurs malveillants. L'équipe de recherche sur les menaces de Sysdig a baptisé cette tactique attaque par détournement de LLML'équipe de recherche sur les menaces de Sysdig a baptisé cette tactique "attaque par détournement de LLM". sécurité des grands modèles de langage de sécurité sophistiqué.

Comprendre l'attaque LLMjacking

 

Récemmentles principaux fournisseurs de cloud tels que Azure Machine Learning, Vertex AI de GCP et AWS Bedrock ont introduit des services LLM hébergés. Ces plateformes offrent aux développeurs un accès transparent à une pléthore de modèles LLM populaires, facilitant le développement rapide d'applications basées sur l'IA. applications basées sur l'IA. Les interfaces utilisateur sont conçues pour être simples, ce qui accélère le processus de création d'applications.

Toutefois, l'accès à ces modèles n'est pas aussi simple qu'il y paraît. Les utilisateurs doivent soumettre des demandes d'accès au fournisseur de services en nuage. Si pour certains modèles, l'approbation est automatique, pour d'autres, en particulier les modèles de tiers, un bref formulaire doit être rempli. Malgré cette exigence procédurale, elle ne constitue guère un défi pour les attaquants, servant davantage de ralentisseur que de mesure de sécurité solide.

Les fournisseurs de services en nuage ont rationalisé le processus d'interaction avec les modèles linguistiques hébergés en nuage grâce à des commandes CLI conviviales. Une fois les configurations et les autorisations définies, l'interaction avec le modèle se fait sans effort grâce à des commandes simples. Ees considérations éthiques en matière d'IA sont essentielles pour garantir le développement et le déploiement responsables des systèmes intelligents.

Démêler l'écheveau de l'attaque

 

L'essentiel de l l'apprentissage automatique d'apprentissage automatique réside dans l'exploitation d'informations d'identification volées pour pénétrer dans des environnements en nuage et accéder à des modèles LLM locaux hébergés par des fournisseurs en nuage. Cette voie d'intrusion implique généralement de compromettre des systèmes utilisant des versions vulnérables de frameworks tels que Laravel, puis d'acquérir des informations d'identification pour accéder aux services LLM, tels que ceux offerts par Amazon Web Services (AWS).

Les attaquants utilisent divers outils, y compris des scripts Python open-source, pour valider les clés d'une gamme d'offres de différents fournisseurs tels que Anthropic, AWS Bedrock, Google Cloud Vertex AI, Mistral et OpenAI. Notamment, pendant la phase de vérification, aucune requête LLM légitime n'est exécutée ; l'accent est mis sur l'évaluation des capacités des informations d'identification et des quotas associés.

Le rôle de la procuration inversée de LLM

 

Au cœur de l'attaque du LLMjacking est l'utilisation du proxy inverse LLM, un projet open-source conçu pour agir comme un conduit pour les services LLM. Cet outil permet aux attaquants de gérer l'accès à plusieurs comptes LLM de manière centralisée, sans exposer les informations d'identification sous-jacentes. En s'appuyant sur ce proxy, les acteurs de la menace peuvent rentabiliser leurs efforts en vendant l'accès à des comptes compromis tout en conservant l'anonymat.

En outre, l'attaque attaque LLMjacking les pirates démontrent une tentative astucieuse d'échapper à la détection en interrogeant les paramètres de journalisation, minimisant ainsi le risque de découverte tout en utilisant des informations d'identification compromises.

Aperçu technique de l'attaque LLMjacking

 

Un examen plus approfondi des aspects techniques de l'attaque révèle une approche calculée de la part des attaquants. En exécutant des requêtes API apparemment légitimes dans l'environnement cloud, ils testent méticuleusement les limites de leur accès sans déclencher d'alarmes immédiates. Par exemple, les attaquants manipulent délibérément les paramètres dans les appels API pour valider l'existence et l'activité des services LLM, découvrant ainsi l'étendue des capacités de leurs informations d'identification volées.

Atténuation de l'attaque LLMjacking

 

Les organisations sont invitées à renforcer leurs mécanismes de défense contre l'attaque du attaque LLMjacking en activant la journalisation détaillée et en surveillant les journaux du nuage pour détecter toute activité suspecte ou non autorisée. Le vol d'identifiants cloud et SaaS reste un vecteur d'attaque courant, les attaquants cherchant continuellement de nouvelles voies pour gagner de l'argent.

Alors que les organisations s'appuient de plus en plus sur des modèles d'IA hébergés dans le cloud, les risques associés aux accès non autorisés s'intensifient. Pour atténuer ces risques, les entreprises doivent donner la priorité :

 

  1. Journalisation et surveillance améliorées : Mettez en place une journalisation détaillée et une surveillance rigoureuse de l'activité du nuage afin de détecter rapidement tout accès suspect ou non autorisé.
  2. Gestion des vulnérabilités : Maintenir des processus efficaces de gestion des vulnérabilités afin d'empêcher l'accès initial par des vulnérabilités connues, telles que CVE-2021-3129.
  3. Sensibilisation aux risques et réaction : Sensibiliser les parties prenantes à l'évolution du paysage des menaces et établir des protocoles clairs pour répondre aux incidents de sécurité.

La sécurisation des modèles d'IA basés sur le cloud est essentielle pour protéger les données sensibles et maintenir l'intégrité de l'entreprise.

Conclusion

 

Alors que la prévalence des vols d'identifiants cloud et SaaS continue d'augmenter, il est impératif pour les organisations de renforcer leur position en matière de cybersécurité. L'utilisation de services LLM peut entraîner des coûts substantiels, ce qui en fait une cible attrayante pour les acteurs malveillants à la recherche d'un gain financier. Les meilleures pratiques en matière de sécurité de l'IA jouent un rôle essentiel dans la protection des systèmes contre les cybermenaces en constante évolution.

Des mécanismes de détection et de réaction rapides sont essentiels pour atténuer l'impact de ces attaques et protéger les opérations commerciales. En conclusion, le LLMjacking souligne la nature évolutive des menaces à la sécurité de l'informatique dématérialisée. menaces pour la sécurité de l'informatique en nuagenécessitant une approche proactive de la cybersécurité pour contrer efficacement les vulnérabilités émergentes.

En restant vigilant et en mettant en œuvre de solides mesures de sécurité de l'IA dans le nuageles organisations peuvent renforcer leurs défenses et atténuer les risques posés par l'attaque sophistiquée du attaque LLMjacking.

Les sources de cet article comprennent des articles dans The Hacker News et Decipher.

 

Résumé
Combattre l'attaque LLMjacking : Protéger les modèles d'IA hébergés dans le cloud
Nom de l'article
Combattre l'attaque LLMjacking : Protéger les modèles d'IA hébergés dans le cloud
Description
Découvrez comment vous défendre contre l'attaque LLMjacking ciblant les modèles d'IA hébergés dans le cloud. Protégez votre entreprise des cybermenaces dès aujourd'hui.
Auteur
Nom de l'éditeur
TuxCare
Logo de l'éditeur

Vous cherchez à automatiser la correction des vulnérabilités sans redémarrage du noyau, temps d'arrêt du système ou fenêtres de maintenance programmées ?

Découvrez le Live Patching avec TuxCare

Devenez rédacteur invité de TuxCare

Commencer

Courrier

Rejoindre

4,500

Professionnels de Linux et de l'Open Source
!

S'abonner à
notre lettre d'information