Tecnología
WORMGPT LA INTELIGENCIA ARTIFICIAL PARA HACER EL MAL
Como muchos sabemos ChatGPT, el chatbot desarrollado por OpenAI, es conocido por su corrección y formalidad, y se cuida de no responder preguntas tóxicas o inapropiadas. Sin embargo, ha surgido una versión llamada WormGPT diseñada específicamente para evadir las barreras éticas del chatbot original.
WormGPT, aunque similar en funcionamiento a ChatGPT, se ha utilizado en pruebas para llevar a cabo ataques BEC (Business Email Compromise) según informes de la empresa de servicios de correo seguro, SlashNext. El FBI ha señalado que los ataques BEC pueden causar daños financieros significativos a las empresas a través de estafas de correo a empleados.
Además de los ataques BEC, WormGPT es capaz de escribir código malicioso, lo que lo convierte en una herramienta peligrosa. El desarrollador de WormGPT, que vende acceso a esta herramienta, ha demostrado cómo se puede crear malware en Python a través de ella.
La creación de WormGPT se basó en un modelo de IA llamado GPT-J, similar a GPT-3 pero con 6.000 millones de parámetros. El desarrollador entrenó el modelo con datos relacionados con la creación de malware.
SlashNext encontró que WormGPT era capaz de redactar correos electrónicos persuasivos y astutos que podrían utilizarse en sofisticados ataques de phishing y BEC. Los expertos advierten sobre la amenaza que representan las tecnologías de IA generativa como WormGPT en manos de ciberdelincuentes.
El acceso a WormGPT tiene un costo de 60 euros al mes o 550 euros al año, aunque algunos usuarios han expresado su insatisfacción con su rendimiento. Esta situación pone de manifiesto la preocupación sobre el uso de modelos de IA entrenados con fines maliciosos y sus posibles consecuencias negativas en el mundo digital.