ClickCease Cómo pueden utilizarse los modelos GPT para crear malware polimórfico

Únase a nuestro popular boletín

Únase a más de 4.500 profesionales de Linux y el código abierto.

2 veces al mes. Sin spam.

Cómo pueden utilizarse los modelos GPT para crear malware polimórfico

30 de enero de 2023 - Equipo de RRPP de TuxCare

Según los investigadores de CyberArk, los modelos basados en GPT como ChatGPT pueden utilizarse para crear malware polimórfico porque pueden generar grandes cantidades de texto único y variado.

Los investigadores afirman que el malware ChatGPT puede evadir los productos de seguridad y complicar los esfuerzos de mitigación con poco esfuerzo o inversión por parte del atacante. Además, el bot puede crear malware muy avanzado que no contiene código malicioso alguno, lo que dificulta su detección y mitigación.

El malware polimórfico es un tipo de software malicioso que puede cambiar su código para evitar ser detectado por los programas antivirus. Es una amenaza especialmente peligrosa porque puede adaptarse rápidamente y propagarse antes de que las medidas de seguridad puedan detectarlo. El malware polimórfico suele funcionar cambiando su apariencia con cada entrega, lo que dificulta su detección por parte de los programas antivirus.

Al entrenar el modelo en un conjunto de datos de muestras de malware existentes, ChatGPT o cualquier otro modelo basado en GPT puede utilizarse potencialmente para crear malware polimórfico. Una vez entrenado, el modelo puede generar variantes nuevas y distintas del malware que son resistentes a la detección por parte del software antivirus tradicional. Esto se debe al hecho de que el malware polimórfico puede cambiar su apariencia, código o cifrado sin dejar de llevar a cabo las mismas acciones maliciosas.

Sin embargo, es crucial recordar que la creación de malware polimórfico es una tarea desafiante que requiere conocimientos de programación y desarrollo de malware, y sería difícil lograrlo con sólo un modelo de lenguaje. Para convertir el texto generado en malware funcional, se necesitaría una persona o un grupo con conocimientos de programación y desarrollo de malware.

El primer paso consiste en burlar los filtros de contenido que impiden que el chatbot produzca software malicioso. Esto se consigue utilizando un tono autoritario.

Los investigadores ordenaron al bot que completara la tarea respetando múltiples restricciones, y recibieron a cambio un código funcional. También observaron que cuando utilizaban la versión API de ChatGPT en lugar de la versión web, el sistema no utilizaba su filtro de contenidos. Los investigadores se preguntaron por qué ocurría esto. Sin embargo, como la versión web no podía gestionar peticiones complejas, les facilitó el trabajo.

A continuación, los investigadores utilizaron el bot para mutar el código original, lo que dio lugar a la creación de múltiples variaciones únicas. Luego viene un programa polimórfico que implica la creación y mutación continua de inyectores.

Las fuentes de este artículo incluyen un artículo en DARKReading.

Vea esta noticia en nuestro canal de youtube: https://www.youtube.com/watch?v=ycO6hVmt5R4

Resumen
Cómo pueden utilizarse los modelos GPT para crear malware polimórfico
Nombre del artículo
Cómo pueden utilizarse los modelos GPT para crear malware polimórfico
Descripción
Según los investigadores de CyberArk, los modelos basados en GPT como ChatGPT pueden utilizarse para crear malware polimórfico.
Autor
Nombre del editor
TuxCare
Logotipo de la editorial

¿Desea automatizar la aplicación de parches de vulnerabilidad sin reiniciar el núcleo, dejar el sistema fuera de servicio o programar ventanas de mantenimiento?

Más información sobre Live Patching con TuxCare

Conviértete en escritor invitado de TuxCare

Empezar

Correo

Únete a

4,500

Profesionales de Linux y código abierto

Suscríbase a
nuestro boletín