ClickCease Wie GPT-Modelle zur Erstellung polymorpher Malware verwendet werden können

Abonnieren Sie unseren beliebten Newsletter

Schließen Sie sich 4.500+ Linux- und Open-Source-Experten an!

2x im Monat. Kein Spam.

Wie GPT-Modelle zur Erstellung polymorpher Malware verwendet werden können

Januar 30, 2023 - TuxCare PR Team

Laut CyberArk-Forschern können GPT-basierte Modelle wie ChatGPT zur Erstellung polymorpher Malware verwendet werden, da sie große Mengen an einzigartigem und unterschiedlichem Text generieren können.

Den Forschern zufolge kann die ChatGPT-Malware Sicherheitsprodukte umgehen und Abwehrmaßnahmen mit geringem Aufwand oder Investitionen des Angreifers erschweren. Darüber hinaus kann der Bot hochentwickelte Malware erstellen, die überhaupt keinen bösartigen Code enthält, so dass sie nur schwer zu erkennen und abzuschwächen ist.

Polymorphe Malware ist eine Art von Schadsoftware, die ihren Code ändern kann, um die Erkennung durch Antivirenprogramme zu umgehen. Sie ist eine besonders gefährliche Bedrohung, da sie sich schnell anpassen und verbreiten kann, bevor Sicherheitsmaßnahmen sie erkennen können. Polymorphe Malware ändert in der Regel bei jeder Installation ihr Aussehen, so dass sie von Antivirenprogrammen nur schwer erkannt werden kann.

Durch das Trainieren des Modells mit einem Datensatz vorhandener Malware-Samples kann ChatGPT oder jedes andere GPT-basierte Modell potenziell zur Erstellung polymorpher Malware verwendet werden. Nach dem Training kann das Modell neue, unterschiedliche Varianten der Malware erzeugen, die von herkömmlicher Antivirensoftware nicht erkannt werden. Dies liegt daran, dass polymorphe Malware ihr Aussehen, ihren Code oder ihre Verschlüsselung ändern kann, während sie weiterhin dieselben bösartigen Aktionen ausführt.

Es darf jedoch nicht vergessen werden, dass die Erstellung polymorpher Malware ein anspruchsvolles Unterfangen ist, das Kenntnisse in der Programmierung und Malware-Entwicklung erfordert, und es wäre schwierig, dies nur mit einem Sprachmodell zu erreichen. Um den generierten Text in funktionale Malware umzuwandeln, wäre eine erfahrene Person oder Gruppe mit Kenntnissen in der Programmierung und Malware-Entwicklung erforderlich.

Der erste Schritt besteht darin, die Inhaltsfilter zu umgehen, die den Chatbot daran hindern, Schadsoftware zu produzieren. Dies wird durch einen befehlenden Ton erreicht.

Die Forscher wiesen den Bot an, die Aufgabe zu erfüllen und dabei mehrere Einschränkungen zu beachten, und erhielten dafür einen funktionierenden Code. Sie stellten auch fest, dass das System seinen Inhaltsfilter nicht verwendete, wenn sie die API-Version von ChatGPT anstelle der Webversion verwendeten. Die Forscher waren verblüfft, warum dies geschah. Da die Webversion jedoch keine komplexen Anfragen verarbeiten konnte, erleichterte dies ihre Arbeit.

Der Bot wurde dann von den Forschern verwendet, um den ursprünglichen Code zu mutieren, was zur Schaffung mehrerer einzigartiger Varianten führte. Dann folgt ein polymorphes Programm, das die kontinuierliche Erstellung und Mutation von Injektoren beinhaltet.

Zu den Quellen für diesen Beitrag gehört ein Artikel in DARKReading.

Sehen Sie sich diese Nachricht auf unserem YouTube-Kanal an: https://www.youtube.com/watch?v=ycO6hVmt5R4

Zusammenfassung
Wie GPT-Modelle zur Erstellung polymorpher Malware verwendet werden können
Artikel Name
Wie GPT-Modelle zur Erstellung polymorpher Malware verwendet werden können
Beschreibung
Nach Angaben der CyberArk-Forscher können GPT-basierte Modelle wie ChatGPT zur Erstellung polymorpher Malware verwendet werden.
Autor
Name des Herausgebers
TuxCare
Logo des Herausgebers

Möchten Sie das Patchen von Sicherheitslücken ohne Kernel-Neustart, Systemausfallzeiten oder geplante Wartungsfenster automatisieren?

Erfahren Sie mehr über Live-Patching mit TuxCare

Werden Sie ein TuxCare-Gastautor

Los geht's

E-Mail

Beitreten

4,500

Linux & Open Source
Fachleute!

Abonnieren Sie
unseren Newsletter