La Inteligencia Artificial en el Cibercrimen: Cinco estrategias para robar Información y dinero | Por ESET


La Inteligencia Artificial (IA) ha llegado para revolucionar múltiples disciplinas y se ha convertido en una herramienta indispensable. Sin embargo, su poder también ha sido aprovechado por el cibercrimen para llevar a cabo ataques y acciones maliciosas. ESET, compañía líder en detección proactiva de amenazas, advierte sobre cinco maneras en que los cibercriminales están utilizando la IA para robar información sensible y obtener beneficios económicos.

Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, comenta: "En febrero de 2023, desde ESET ya alertábamos sobre el uso malicioso que el cibercrimen podría darle a una herramienta con alcances tan amplios como la Inteligencia Artificial. A menos de un año y medio de esa advertencia, ya se puede observar las implicancias que los actores maliciosos le dan a la IA y cómo la utilizan para expandir y mejorar sus tácticas y estrategias de ataque. Un ejemplo es el de WormGPT, que, si bien ya ha sido dado de baja por sus creadores, en su momento se ofrecía exclusivamente a los cibercriminales en foros clandestinos, con los mismos alcances y posibilidades que ChatGPT, pero sin ningún tipo de barrera ética."

A continuación, ESET detalla cinco maneras en que los cibercriminales están utilizando la IA para efectuar estafas y quedarse con el dinero y datos personales de sus víctimas:


1. Perfeccionamiento de la Suplantación de Identidad

La IA generativa, como ChatGPT, ha impulsado un aumento significativo en los correos de phishing. Esta tecnología permite a los cibercriminales crear mensajes más convincentes y bien elaborados, engañando a las personas para que revelen información sensible. Además, la IA se utiliza para traducir mensajes y mejorar la comunicación entre diferentes grupos cibercriminales globales. Servicios como GoMail Pro, integrados con ChatGPT, permiten a los atacantes mejorar el contenido de los mensajes que envían a sus víctimas, a pesar de los esfuerzos de OpenAI para limitar el uso indebido de sus productos.


2. Optimización del Doxing

El doxing consiste en la publicación de información personal de terceros con intenciones de intimidar o extorsionar. La IA, al ser entrenada con una vasta cantidad de datos en Internet, puede deducir detalles sensibles de una persona. Investigadores de seguridad han demostrado que es posible inferir información personal, como el origen étnico o la ubicación, a través de interacciones con chatbots basados en GPT-4. Esto resalta la importancia de ser cauteloso sobre la información que se comparte en línea.


3. Estafas Realistas con Audio y Deepfake

La IA generativa ha avanzado a tal punto que es difícil distinguir entre una imagen real y una creada artificialmente. Un caso notable es la estafa a un empleado que perdió 24 millones de dólares tras una reunión con un supuesto director financiero falso. Además, las estafas por audio se han vuelto más comunes, donde se necesita solo unos pocos segundos de la voz de una persona para crear algo peligrosamente convincente.


4. Evasión de Controles de Identidad

Los cibercriminales están utilizando la IA para eludir controles de identidad que verifican a través de imágenes. Utilizando documentos de identificación falsos o robados, pueden superponer una imagen sobre el rostro real de una persona, similar a un filtro de Instagram, engañando así al sistema de verificación. Aunque esta práctica está en sus primeras etapas, es probable que se perfeccione y se expanda en el futuro.


5. Jailbreak como Servicio

Las empresas de IA implementan protecciones para evitar el uso indebido de sus modelos. Sin embargo, los cibercriminales están contratando servicios de jailbreak para modificar los sistemas de IA y generar respuestas maliciosas, como contenido para correos de phishing o código para ransomware. Esta práctica les permite eludir las limitaciones de las herramientas originales sin necesidad de desarrollar sus propios modelos de IA.


Gutiérrez Amaya concluye: "La tecnología no es buena ni mala, como tampoco lo es la Inteligencia Artificial: todo depende de las intenciones con que se las utilice. ChatGPT, por ejemplo, es utilizado para analizar malware y tiene impactos positivos en áreas como la educación y la medicina. Sin embargo, es crucial estar al tanto de las estrategias y tácticas de los cibercriminales para evitar ser una víctima de sus estafas y engaños."


-

-

No hay comentarios.

Imágenes del tema de enot-poloskun. Con tecnología de Blogger.