如何使用 GPT 模型創建多態惡意軟體
根據CyberArk研究人員的說法,像ChatGPT這樣的基於GPT的模型可用於創建多態惡意軟體,因為它們可以生成大量獨特而多樣的文本。
研究人員聲稱,ChatGPT 惡意軟體可以逃避安全產品,並使緩解工作複雜化,而攻擊者只需很少的努力或投資。此外,機器人可以創建完全不包含惡意代碼的高度高級惡意軟體,使其難以檢測和緩解。
多態惡意軟體是一種惡意軟體,可以更改其代碼以避免被防病毒程序檢測到。這是一個特別危險的威脅,因為它可以在安全措施檢測到它之前迅速適應和傳播。多態惡意軟體通常通過每次安裝更改其外觀來工作,這使得防病毒軟體難以檢測到它。
通過在現有惡意軟體樣本的數據集上訓練模型,ChatGPT 或任何其他基於 GPT 的模型都可能用於創建多態惡意軟體。經過訓練后,該模型可以生成新的、不同的惡意軟體變體,這些變體可以抵抗傳統防病毒軟體的檢測。這是因為多態惡意軟體可以更改其外觀、代碼或加密,同時仍執行相同的惡意操作。
然而,重要的是要記住,創建多態惡意軟體是一項具有挑戰性的工作,需要程式設計和惡意軟體開發的知識,並且僅使用語言模型很難實現這一目標。要將生成的文本轉換為功能性惡意軟體,需要具有程式設計和惡意軟體開發知識的熟練個人或小組。
第一步是繞過阻止聊天機器人生成惡意軟體的內容篩檢程式。這是通過使用命令語氣完成的。
研究人員指示機器人在遵守多個約束的同時完成任務,他們收到了一個功能代碼作為回報。他們還注意到,當他們使用ChatGPT的API版本而不是Web版本時,系統沒有使用其內容篩檢程式。研究人員對為什麼會發生這種情況感到困惑。但是,由於網路版本無法處理複雜的請求,因此使他們的工作更容易。
然後,研究人員使用該機器人來改變原始代碼,從而創建多個獨特的變體。然後是一個多態程式,涉及注射器的連續創建和突變。
這篇文章的來源包括 DARKReading的一篇文章。
在我們的YouTube頻道上觀看此新聞:https://www.youtube.com/watch?v=ycO6hVmt5R4

