El blog de n4p5t3r

Blog dedicado a temas de tecnología


WormGPT la nueva arma de la Dark Web para realizar ciberataque

Algunos ciberdelincuentes comienzan a darse cuenta de la utilidad de la inteligencia artificial para sus cibercrímenes.

La nueva era de herramientas de inteligencia artificial nos demuestra lo que la tecnología es capaz de hacer en pleno 2023. No sólo hablamos de generadores de imágenes como Midjourney, por ejemplo, o de chatbots como ChatGPT, sino que también empezamos a vislumbrar un futuro en el que las estafas y los fraudes online sean una mezcla del ingenio de habilidosos hackers y de la eficacia de la IA.

Nueva herramienta para el mal online: WormGPT

Bajo este curioso nombre, que podría traducirse como GusanoGPT, nos encontramos con un módulo de inteligencia artificial que se asienta sobre las bases de un modelo de lenguaje de gran tamaño denominado GPT-J, que, además es de código abierto.

Este último detalle es fundamental para entender cómo un modelo de lenguaje de código abierto puede ser modificado por hackers con malas intenciones para eliminar ciertas restricciones de los modelos convencionales y así poder, por ejemplo, crear virus y malware con el beneplácito de una tecnología pensada para ayudar al ser humano.

Los ataques de phishing han sido una de las primeras utilidades dadas a esta IA criminal, aunque dadas sus múltiples habilidades, entre las que destacan el soporte de caracteres ilimitados o el formateo de código, parece que solamente estamos ante la antesala de lo que podría estar por venir.

Sin duda alguna, los más modernos chatbots están alucinando a millones de usuarios alrededor del mundo por una causa fundamental: la sencillez de uso de su interfaz. En este caso, imagina si existiese una herramienta similar, pero con la capacidad de causar daño sin ningún tipo de límite. Este es el verdadero peligro de WormGPT.

Eso sí, existen otros peligros fuera de WormGPT, como la posibilidad de corromper al propio ChatGPT para que realice acciones para las que no debería estar preparado. Y es que algunos hackers estarían utilizando el chatbot de OpenAI para extraer información sensible, generar contenido inapropiado o ejecutar códigos maliciosos.

La defensa contra este tipo de herramientas pasa por que los expertos en ciberseguridad utilicen los modelos de IA en su favor para detectar y contrarrestar este tipo de chatbots maliciosos y a los cibercriminales que utilizan la inteligencia artificial en favor de sus propios intereses. Además, la prevención y detección de cualquier tipo de estafa online debería ser uno de los grandes aspectos a integrar en la formación de cualquier tipo de trabajador.



Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

two × two =

SOBRE MÍ

n4p5t3r.

Emprendedor. CEO – CISO – CTO en @rrsolucionesit. CCSA, ISO27000, ITIL v3, CSP, CSFPC, RWVCPC, SFPC, FNSE, CC, NSE1. Miembro de @hackingpublico

El libro me enseñó a pensar y el pensamiento me hizo libre

Anónimo