ClickCease La chaîne d'approvisionnement de l'IA n'est pas imperméable

Rejoignez notre populaire bulletin d'information

Rejoignez 4 500+ professionnels de Linux et de l'Open Source !

2 fois par mois. Pas de spam.

La chaîne d'approvisionnement de l'IA n'est pas imperméable

Joao Correia

25 janvier 2024 - Évangéliste technique

L'IA a été le principal sujet de l'année 2023 - pour situer le contexte, ChatGPT est devenu l'article de Wikipédia le plus consulté en 2023 - et elle a été mise en œuvre à des stades d'essai ou de production par de nombreuses organisations dans le monde entier. Que ces organisations aient déjà réalisé les avantages de l'IA ou qu'elles en explorent encore le potentiel n'a rien à voir avec son ascension rapide dans un laps de temps relativement court.

Toutefois, l'essor de l'IA, et en particulier des modèles de langage de grande taille, a suscité des inquiétudes en matière de sécurité. Par le biais d'interfaces web directes ou d'appels d'API, plusieurs vecteurs d'attaque ont été identifiés, susceptibles de compromettre les modèles de langage, les données d'apprentissage ou les données des utilisateurs. Les risques ont été amplifiés lorsque l'IA a été intégrée dans des applications tierces.

À la fin de l'année 2023, des chercheurs en sécurité ont découvert une autre vulnérabilité potentielle dans les plates-formes d'IA : l'exploitation des jetons de l'API Hugging Face exposés publiquement. jetons de l'API Hugging Face exposés publiquement. Ce problème rappelle les seaux publics non sécurisés d'Amazon d'antan (si 2022 !). Il a été découvert que de nombreuses organisations de premier plan, dont Meta et d'autres entreprises d'IA, ont soit codé en dur ces jetons dans des référentiels de code accessibles au public, soit les ont publiés sur divers sites web. L'analyse a révélé que ces tokens permettaient de lireet, ce qui est essentiel, l'accès en écriture aux données sous-jacentes, l'accès en lecture et surtout en écriture aux données sous-jacentesy compris les ensembles de données utilisés pour former les modèles d'intelligence artificielle. La manipulation de ces données pourrait entraîner l'insertion d'un contenu faux, trompeur ou malveillant dans l'ensemble de formation, ce qui affecterait ensuite les applications et les portails destinés aux utilisateurs. En outre, il est essentiel de reconnaître l'importance des données d'entraînement pour les entreprises d'IA ; l'abus de ces jetons pourrait conduire à leur perte ou à leur corruption d'une manière difficile à détecter.

Hugging Face a reconnu le problème des jetons exposés, les a invalidés et travaille à la mise en œuvre de mécanismes de contrôle plus raffinés pour l'utilisation des jetons à l'avenir.

Cette situation présente des similitudes avec d'autres attaques de la chaîne d'approvisionnement où des informations d'identification publiques sont exposées dans des référentiels de code, ce qui a donné lieu à des initiatives telles que la fonction "Secret Scanning" de Github. Elle met en évidence un principe fondamental : une mauvaise manipulation des secrets, telle que la publication d'informations d'identification, invite à un examen minutieux et à une utilisation abusive. Pourtant, cet oubli persiste.

Il est donc essentiel de traiter les jetons d'accès comme n'importe quel autre identifiant sensible : les garder privés et sécurisés. Pour les pipelines CI/CD, envisagez d'utiliser des variables d'environnement ou d'autres méthodes sécurisées qui n'impliquent pas le codage en dur des secrets dans le code de votre projet. Au minimum, assurez-vous que ces fichiers sont ajoutés à la liste des fichiers ignorés de Git.

Enfin, pour protéger vos projets Java de paquets potentiellement compromis, faites toujours confiance à des sources fiables et approuvées telles que SecureChain pour Java pour vous aider à sécuriser vos applications.

Résumé
La chaîne d'approvisionnement de l'IA n'est pas imperméable
Nom de l'article
La chaîne d'approvisionnement de l'IA n'est pas imperméable
Description
L'essor de l'IA s'accompagne de préoccupations en matière de sécurité. En savoir plus sur les risques liés à l'intégration de l'IA dans des applications tierces.
Auteur
Nom de l'éditeur
TuxCare
Logo de l'éditeur

Vous cherchez à automatiser la correction des vulnérabilités sans redémarrage du noyau, temps d'arrêt du système ou fenêtres de maintenance programmées ?

Découvrez le Live Patching avec TuxCare

Devenez rédacteur invité de TuxCare

Commencer

Courrier

Rejoindre

4,500

Professionnels de Linux et de l'Open Source
!

S'abonner à
notre lettre d'information