ClickCease La CSA identifie la possibilité de cyberattaques renforçant le ChatGPT

Rejoignez notre populaire bulletin d'information

Rejoignez 4 500+ professionnels de Linux et de l'Open Source !

2 fois par mois. Pas de spam.

La CSA identifie la possibilité de cyberattaques renforçant le ChatGPT

Le 9 mai 2023 - L'équipe de relations publiques de TuxCare

La Cloud Security Alliance (CSA) a publié une étude détaillant cinq façons dont les attaquants pourraient tirer parti de ChatGPT pour améliorer leur arsenal d'attaques. L'étude examine comment les acteurs de la menace pourraient utiliser des systèmes pilotés par l'IA pour mener à bien diverses cyberattaques telles que le dénombrement, l'aide à l'implantation, la reconnaissance, le phishing et le développement de codes polymorphes.

Selon les cyber-spécialistes du SANS Institute présents à la conférence RSA, les attaques par IA et l'ingénierie sociale par ChatGPT sont deux des cinq nouvelles méthodologies d'attaque les plus dangereuses déployées par les acteurs de la menace. Selon l'étude, la première menace d'agression est l'énumération améliorée par ChatGPT, qui est classée comme présentant un risque moyen, un impact modéré et une probabilité élevée. ChatGPT peut être utilisé pour découvrir rapidement les applications les plus courantes liées à certaines technologies ou plateformes.

Il y a aussi l'aide à l'établissement d'un point d'appui, qui est évaluée comme présentant un risque moyen, un impact moyen et une probabilité moyenne. La technique consistant à aider les acteurs de la menace à établir une première présence ou un point d'ancrage dans un système ou un réseau cible est désignée sous le nom d'aide à l'établissement d'un point d'ancrage renforcée par le ChatGPT. Dans le contexte des outils d'IA, l'aide à l'implantation peut comprendre l'automatisation de la recherche de vulnérabilités ou la simplification du processus d'exploitation de celles-ci, ce qui permet aux attaquants d'obtenir plus facilement un accès rapide à leurs cibles.

En ce qui concerne les acteurs de menaces malveillantes dans le domaine de la cybersécurité, le document couvre également la reconnaissance, c'est-à-dire l'étape initiale d'acquisition d'informations sur un système, un réseau ou une organisation cible avant de lancer un assaut. La recherche a classé la reconnaissance améliorée par le ChatGPT comme étant à faible risque, à impact moyen et à faible possibilité. Les acteurs peuvent désormais facilement créer des courriels d'apparence légitime pour divers objectifs, y compris l'hameçonnage, à l'aide d'outils alimentés par l'IA. L'étude a classé l'hameçonnage par ChatGPT dans les catégories suivantes : risque moyen, impact faible et extrêmement plausible.

Enfin, le rapport traite de l'utilisation de ChatGPT pour générer un shellcode polymorphe, qui peut donner lieu à diverses variantes de logiciels malveillants qui compliquent les efforts de détection et d'atténuation des professionnels de la cybersécurité. La génération de codes polymorphes par ChatGPT a été classée comme présentant un risque élevé, un impact élevé et une probabilité moyenne.

Les sources de cet article comprennent un article paru dans CSOOnline.

Résumé
La CSA identifie la possibilité de cyberattaques renforçant le ChatGPT
Nom de l'article
La CSA identifie la possibilité de cyberattaques renforçant le ChatGPT
Description
La Cloud Security Alliance (CSA) a publié une étude détaillant cinq façons dont les attaquants pourraient tirer parti de ChatGPT pour améliorer leur arsenal d'attaques.
Auteur
Nom de l'éditeur
TuxCare
Logo de l'éditeur

Vous cherchez à automatiser la correction des vulnérabilités sans redémarrage du noyau, temps d'arrêt du système ou fenêtres de maintenance programmées ?

Découvrez le Live Patching avec TuxCare

Devenez rédacteur invité de TuxCare

Commencer

Courrier

Rejoindre

4,500

Professionnels de Linux et de l'Open Source
!

S'abonner à
notre lettre d'information