buscar noticiasbuscar noticias
Internacional / Mundo

IA y ciberdelincuencia, cinco estrategias de estafa

Según la empresa de ciberseguridad ESET, estas son algunas formas en que los delincuentes emplean la inteligencia artificial

IA y ciberdelincuencia, cinco estrategias de estafa

La inteligencia artificial (IA) se ha consolidado como una herramienta revolucionaria que facilita numerosos procesos en la vida cotidiana. Sin embargo, también se ha convertido en un recurso valioso para los ciberdelincuentes, quienes han adaptado esta tecnología para llevar a cabo acciones maliciosas. La empresa de ciberseguridad ESET destaca cinco maneras en que los delincuentes emplean la IA para estafarte.

La IA ha revolucionado tanto los beneficios como los riesgos asociados con la tecnología. Mientras facilita innumerables tareas, también ofrece nuevas oportunidades para el cibercrimen.

imagen-cuerpo

CINCO MANERAS DE ESTAFA CON IA

1. Suplantación de identidad mejorada

Con la popularización de chatbots como ChatGPT, ha habido un aumento significativo en los correos de phishing. Los ciberdelincuentes utilizan la IA para crear mensajes convincentes que engañan a las personas para que revelen información confidencial o realicen transacciones financieras. Servicios como GoMail Pro, que integran funciones de ChatGPT, permiten a los atacantes perfeccionar estos correos sin ser detectados por OpenAI. Además, la IA facilita la traducción y mejora de la comunicación entre grupos criminales a nivel global, según un artículo del Massachusetts Institute of Technology (MIT).

2. Estafas realistas con deepfakes y audio

La IA ha hecho difícil distinguir entre imágenes reales y generadas artificialmente, advierte ESET. Esta tecnología también ha mejorado las estafas por audio, donde con solo unos segundos de grabación de la voz de una persona, obtenida de redes sociales, los delincuentes pueden crear mensajes de audio convincentes. Un caso notable es el de un empleado que perdió 24 millones de dólares después de una llamada con alguien que simulaba ser el director financiero de su empresa. Estas técnicas pueden generar situaciones de estrés y confusión, facilitando el fraude.

3. Evasión de controles de identidad

La IA permite a los ciberdelincuentes eludir los controles de verificación de identidad. Utilizando documentos de identificación falsos o robados, sobre los cuales se superpone una imagen digital, los atacantes pueden engañar a los sistemas de seguridad que dependen de la verificación visual. Aunque esta técnica todavía está en desarrollo, tiene el potencial de evolucionar y volverse más sofisticada, alerta ESET.

4. Doxing optimizado

El doxing, la práctica de publicar información personal de terceros para intimidar o extorsionar, ha sido potenciado con la IA. Los ciberdelincuentes entrenan a la IA con grandes volúmenes de datos disponibles en Internet para deducir información sensible, como la ubicación de una persona. Los especialistas de ESET advierten que mientras más información personal esté disponible en línea, mayor es la vulnerabilidad. Herramientas como ChatGPT pueden inferir detalles personales durante las interacciones, por lo que se recomienda ser cauteloso al compartir información.

5. Jailbreak como servicio

En lugar de desarrollar sus propios modelos de IA, los ciberdelincuentes optan por contratar servicios de jailbreak, ahorrando tiempo y recursos. Según Kaspersky, el jailbreaking es el proceso de explotar fallos en dispositivos electrónicos bloqueados para instalar software no autorizado. Esto permite a los atacantes modificar sistemas de IA para generar contenido malicioso o escribir código para malware, eludiendo las restricciones del fabricante.

¿LA INTELIGENCIA ARTIFICIAL ES MALA?

ESET destaca que la tecnología en sí no es realmente buena o mala; todo depende de cómo se utilice. Sin embargo, el potencial de la IA en manos equivocadas es preocupante, como lo demuestran las tácticas de ciberdelincuencia actuales. Es fundamental que los usuarios estén informados y tomen medidas de seguridad para protegerse de estas amenazas emergentes.