CSA identifiziert die Möglichkeit von ChatGPT-verstärkten Cyberangriffen
Die Cloud Security Alliance (CSA) hat eine Studie veröffentlicht, in der fünf Möglichkeiten aufgezeigt werden, wie Angreifer ChatGPT nutzen könnten, um ihr Angriffsarsenal zu verbessern. Die Studie untersucht, wie Bedrohungsakteure KI-gesteuerte Systeme nutzen könnten, um verschiedene Cyberangriffe wie Enumeration, Unterstützung bei der Etablierung, Aufklärung, Phishing und Entwicklung polymorphen Codes durchzuführen.
KI-Angriffe und ChatGPT-gestütztes Social Engineering sind zwei der fünf gefährlichsten neuen Angriffsmethoden, die von Bedrohungsakteuren eingesetzt werden, so die Cyberspezialisten des SANS Institute auf der RSA Conference. Laut der Studie ist die erste Angriffsbedrohung die ChatGPT-gestützte Aufzählung, die als mittleres Risiko, moderate Auswirkung und hohe Chance eingestuft wird. ChatGPT kann verwendet werden, um schnell die am häufigsten verwendeten Anwendungen in Verbindung mit bestimmten Technologien oder Plattformen zu ermitteln.
Es gibt auch eine Unterstützung beim Fußfassen, die als mittleres Risiko, mittlere Auswirkung und mittlere Chance eingestuft wird. Die Technik zur Unterstützung von Bedrohungsakteuren bei der Etablierung einer ersten Präsenz oder eines Fußballs in einem Zielsystem oder -netzwerk wird als ChatGPT-gestützte Fußballsicherung bezeichnet. Im Zusammenhang mit KI-Tools könnte die Unterstützung beim Fußfassen darin bestehen, das Auffinden von Schwachstellen zu automatisieren oder den Prozess ihrer Ausnutzung zu vereinfachen, um Angreifern einen frühen Zugang zu ihren Zielen zu ermöglichen.
In Bezug auf böswillige Bedrohungsakteure im Bereich der Cybersicherheit befasst sich das Papier auch mit der Aufklärung, d. h. dem frühen Schritt der Beschaffung von Informationen über ein Zielsystem, -netzwerk oder -unternehmen vor der Einleitung eines Angriffs. In der Studie wird die ChatGPT-gestützte Aufklärung als geringes Risiko, mittlere Auswirkung und geringe Möglichkeit eingestuft. Mit Hilfe von KI-gestützten Tools können Angreifer nun problemlos legitim aussehende E-Mails für eine Vielzahl von Zielen, einschließlich Phishing, erstellen. Die Untersuchung stufte ChatGPT-gestütztes Phishing als mittleres Risiko, geringe Auswirkung und äußerst plausibel ein.
Schließlich wird in dem Bericht die Verwendung von ChatGPT zur Generierung von polymorphem Shellcode erörtert, der zu einer Vielzahl von Malware-Varianten führen kann, die die Erkennung und Eindämmung durch Cybersicherheitsexperten erschweren. ChatGPT-erweitert Die Generierung von polymorphem Code wurde als hohes Risiko, hohe Auswirkung und mittlere Wahrscheinlichkeit eingestuft.
Zu den Quellen für diesen Beitrag gehört ein Artikel in CSOOnline.