KI war die wichtigste Geschichte des Jahres 2023 - um etwas Kontext zu schaffen, ChatGPT war der meistgelesene Wikipedia-Artikel des Jahres 2023 - und wurde von zahlreichen Organisationen weltweit in der Test- oder Produktionsphase eingesetzt. Ob diese Unternehmen die Vorteile der KI bereits erkannt haben oder ihr Potenzial noch erforschen, ist für ihren raschen Aufstieg in einem relativ kurzen Zeitraum irrelevant.
Mit dem Aufkommen von KI und insbesondere von großen Sprachmodellen kamen jedoch auch Sicherheitsbedenken auf. Durch direkte Webschnittstellen oder API-Aufrufe wurden mehrere Angriffsvektoren identifiziert, die die Sprachmodelle, Trainingsdaten oder Nutzerdaten gefährden könnten. Die Risiken wurden noch verstärkt, wenn KI in Anwendungen von Drittanbietern integriert wurde.
Zum Jahresende 2023 haben Sicherheitsforscher eine weitere potenzielle Schwachstelle in KI-Plattformen aufgedeckt: die Ausnutzung von öffentlich zugänglicher Hugging Face API Token. Dieses Problem erinnert an die ungesicherten öffentlichen Amazon-Buckets von früher (also 2022!). Es wurde festgestellt, dass viele prominente Organisationen, darunter Meta und andere KI-Unternehmen, diese Token entweder in öffentlich zugänglichen Code-Repositories fest codiert oder auf verschiedenen Websites veröffentlicht haben. Die Analyse ergab, dass diese Token lesenund vor allem, Schreibzugriff auf die zugrunde liegenden Dateneinschließlich der Datensätze, die zum Trainieren von KI-Modellen verwendet werden. Die Manipulation dieser Daten könnte dazu führen, dass falsche, irreführende oder böswillige Inhalte in den Trainingssatz eingefügt werden, die sich dann auf die Anwendungen und Portale der Benutzer auswirken. Darüber hinaus ist es von entscheidender Bedeutung, die Bedeutung von Trainingsdaten für KI-Unternehmen zu erkennen; der Missbrauch dieser Token könnte zu deren Verlust oder Beschädigung auf eine Art und Weise führen, die schwer zu erkennen ist.
Hugging Face hat das Problem mit den ausgestellten Token erkannt, sie für ungültig erklärt und arbeitet daran, in Zukunft verfeinerte Kontrollmechanismen für die Verwendung von Token zu implementieren.
Diese Situation ähnelt anderen Angriffen auf die Lieferkette, bei denen öffentliche Anmeldedaten in Code-Repositories offengelegt werden, was zu Initiativen wie der Secret Scanning-Funktion von Github geführt hat. Dies unterstreicht ein grundlegendes Prinzip: Ein falscher Umgang mit Geheimnissen, z. B. die Veröffentlichung von Anmeldedaten, lädt zur Überprüfung und zum Missbrauch ein. Dennoch wird dieses Versäumnis immer noch begangen.
Daher ist es wichtig, Zugriffstoken wie alle anderen sensiblen Anmeldeinformationen zu behandeln: Sie müssen privat und sicher bleiben. Für CI/CD-Pipelines sollten Sie die Verwendung von Umgebungsvariablen oder anderen sicheren Methoden in Betracht ziehen, bei denen Geheimnisse nicht fest in den Code Ihres Projekts kodiert werden müssen. Stellen Sie zumindest sicher, dass diese Dateien in die Ignorierliste von Git aufgenommen werden.
Um Ihre Java-Projekte vor potenziell gefährdeten Paketen zu schützen, sollten Sie sich stets auf vertrauenswürdige und geprüfte Quellen wie SecureChain für Java die Ihnen helfen, Ihre Anwendungen zu sichern.


