Comment les modèles GPT peuvent être utilisés pour créer des logiciels malveillants polymorphes ?
Selon les chercheurs de CyberArk, les modèles basés sur GPT comme ChatGPT peuvent être utilisés pour créer des logiciels malveillants polymorphes car ils peuvent générer de grandes quantités de textes uniques et variés.
Les chercheurs affirment que le malware ChatGPT peut échapper aux produits de sécurité et compliquer les efforts d'atténuation avec peu d'efforts ou d'investissement de la part de l'attaquant. En outre, le robot peut créer des logiciels malveillants très avancés qui ne contiennent aucun code malveillant, ce qui les rend difficiles à détecter et à atténuer.
Un logiciel malveillant polymorphe est un type de logiciel malveillant qui peut modifier son code pour éviter d'être détecté par les programmes antivirus. Il s'agit d'une menace particulièrement dangereuse car elle peut s'adapter et se propager rapidement avant que les mesures de sécurité ne puissent la détecter. Les logiciels malveillants polymorphes fonctionnent généralement en changeant d'apparence à chaque installation, ce qui les rend difficiles à détecter par les logiciels antivirus.
En entraînant le modèle sur un ensemble de données d'échantillons de logiciels malveillants existants, ChatGPT ou tout autre modèle basé sur GPT peut potentiellement être utilisé pour créer des logiciels malveillants polymorphes. Une fois entraîné, le modèle peut générer de nouvelles variantes distinctes du malware qui résistent à la détection par les logiciels antivirus traditionnels. Cela est dû au fait que les logiciels malveillants polymorphes peuvent changer d'apparence, de code ou de cryptage tout en effectuant les mêmes actions malveillantes.
Il est toutefois crucial de se rappeler que la création d'un logiciel malveillant polymorphe est une entreprise difficile qui nécessite des connaissances en programmation et en développement de logiciels malveillants, et qu'il serait difficile d'y parvenir avec un simple modèle de langage. Pour convertir le texte généré en un logiciel malveillant fonctionnel, une personne ou un groupe qualifié ayant des connaissances en programmation et en développement de logiciels malveillants serait nécessaire.
La première étape consiste à contourner les filtres de contenu qui empêchent le chatbot de produire des logiciels malveillants. Pour ce faire, il faut utiliser un ton autoritaire.
Les chercheurs ont demandé au robot d'accomplir la tâche en respectant de multiples contraintes, et ils ont reçu un code fonctionnel en retour. Ils ont également remarqué que lorsqu'ils utilisaient la version API de ChatGPT au lieu de la version Web, le système n'utilisait pas son filtre de contenu. Les chercheurs ne comprenaient pas pourquoi cela se produisait. Cependant, comme la version web ne pouvait pas traiter les requêtes complexes, cela leur a facilité la tâche.
Les chercheurs ont ensuite utilisé le robot pour faire muter le code original, ce qui a donné lieu à la création de multiples variations uniques. Vient ensuite un programme polymorphe impliquant la création et la mutation continues d'injecteurs.
Les sources de cette pièce comprennent un article dans DARKReading.
Regardez cette nouvelle sur notre chaîne youtube : https://www.youtube.com/watch?v=ycO6hVmt5R4.