La chaîne d'approvisionnement de l'IA n'est pas imperméable
L'IA a été le principal sujet de l'année 2023 - pour situer le contexte, ChatGPT est devenu l'article de Wikipédia le plus consulté en 2023 - et elle a été mise en œuvre à des stades d'essai ou de production par de nombreuses organisations dans le monde entier. Que ces organisations aient déjà réalisé les avantages de l'IA ou qu'elles en explorent encore le potentiel n'a rien à voir avec son ascension rapide dans un laps de temps relativement court.
Toutefois, l'essor de l'IA, et en particulier des modèles de langage de grande taille, a suscité des inquiétudes en matière de sécurité. Par le biais d'interfaces web directes ou d'appels d'API, plusieurs vecteurs d'attaque ont été identifiés, susceptibles de compromettre les modèles de langage, les données d'apprentissage ou les données des utilisateurs. Les risques ont été amplifiés lorsque l'IA a été intégrée dans des applications tierces.
À la fin de l'année 2023, des chercheurs en sécurité ont découvert une autre vulnérabilité potentielle dans les plates-formes d'IA : l'exploitation des jetons de l'API Hugging Face exposés publiquement. jetons de l'API Hugging Face exposés publiquement. Ce problème rappelle les seaux publics non sécurisés d'Amazon d'antan (si 2022 !). Il a été découvert que de nombreuses organisations de premier plan, dont Meta et d'autres entreprises d'IA, ont soit codé en dur ces jetons dans des référentiels de code accessibles au public, soit les ont publiés sur divers sites web. L'analyse a révélé que ces tokens permettaient de lireet, ce qui est essentiel, l'accès en écriture aux données sous-jacentes, l'accès en lecture et surtout en écriture aux données sous-jacentesy compris les ensembles de données utilisés pour former les modèles d'intelligence artificielle. La manipulation de ces données pourrait entraîner l'insertion d'un contenu faux, trompeur ou malveillant dans l'ensemble de formation, ce qui affecterait ensuite les applications et les portails destinés aux utilisateurs. En outre, il est essentiel de reconnaître l'importance des données d'entraînement pour les entreprises d'IA ; l'abus de ces jetons pourrait conduire à leur perte ou à leur corruption d'une manière difficile à détecter.
Hugging Face a reconnu le problème des jetons exposés, les a invalidés et travaille à la mise en œuvre de mécanismes de contrôle plus raffinés pour l'utilisation des jetons à l'avenir.
Cette situation présente des similitudes avec d'autres attaques de la chaîne d'approvisionnement où des informations d'identification publiques sont exposées dans des référentiels de code, ce qui a donné lieu à des initiatives telles que la fonction "Secret Scanning" de Github. Elle met en évidence un principe fondamental : une mauvaise manipulation des secrets, telle que la publication d'informations d'identification, invite à un examen minutieux et à une utilisation abusive. Pourtant, cet oubli persiste.
Il est donc essentiel de traiter les jetons d'accès comme n'importe quel autre identifiant sensible : les garder privés et sécurisés. Pour les pipelines CI/CD, envisagez d'utiliser des variables d'environnement ou d'autres méthodes sécurisées qui n'impliquent pas le codage en dur des secrets dans le code de votre projet. Au minimum, assurez-vous que ces fichiers sont ajoutés à la liste des fichiers ignorés de Git.
Enfin, pour protéger vos projets Java de paquets potentiellement compromis, faites toujours confiance à des sources fiables et approuvées telles que SecureChain pour Java pour vous aider à sécuriser vos applications.