Tecnologia
La nueva ola de estafas impulsadas por IA

Del fraude por correo electrónico a las falsas voces y rostros: estamos ante una nueva ola de estafas impulsadas por IA.
Por Isabel Manjarrez, investigadora de seguridad del Equipo de Análisis e Investigación Global de Kaspersky.
El avance de la Inteligencia Artificial (IA) ha transformado nuestra vida digital para siempre. Si bien los chatbots y los algoritmos hacen que nuestra experiencia en línea sea más fácil y eficiente, también han creado nuevas amenazas de ingeniería social, similares a las estafas tradicionales, que buscan robar datos personales, información bancaria y detalles sensibles, tanto de personas como de empresas. Se trata de una nueva ola de estafas impulsadas por IA.
Con la IA, los ciberdelincuentes han perfeccionado tácticas como las estafas de phishing, cuyos ataques en Chile aumentaron un 125% en 2024, respecto al año anterior, según el Panorama de Amenazas de Kaspersky. A través de mensajes falsos, los criminales engañan a sus víctimas para que revelan inadvertidamente sus correos, contraseñas o datos de sus tarjetas bancarias. Dirigen tanto a usuarios como a empresas, en forma grande o personalizada, disfrazadas de notificaciones de bancos, proveedores de servicios, sistemas de pago electrónico y otras organizaciones, incluidas aquellas que parecen ser de alguien que conocemos.
Es común que estos mensajes fraudulentos estén mal editados y tengan errores ortográficos, sin embargo, los modelos de aprendizaje automático (LLM) han mejorado la capacidad de los delincuentes para que los mensajes tengan una gramática impecable y sean mucho más convincentes; incluso logrando imitar páginas auténticas de diferentes compañías aumentando así el éxito de sus ataques con las estafas impulsadas por IA.
Con esto, ahora pueden dirigir a sus víctimas en diferentes idiomas y replicar los estilos de comunicación de una persona específica, como un amigo o pareja, porque los modelos de aprendizaje también son capaces de analizar publicaciones en redes sociales u otra información pública de esa persona. persona .
Otro ejemplo son las ultrafalsificaciones, también conocidas como deepfakes: contenidos multimedia manipulados con Inteligencia Artificial. Con apenas unos segundos de una grabación de voz, la IA puede generar clips de audio; Además, también facilita la alteración de imágenes y vídeos modificando rostros y sus expresiones.
Se estima que, en promedio, ocurre un intento de profundo cada cinco minutos y que, para 2026, hasta el 90% del contenido online podría generarse de esta forma. Esto es preocupante porque, dado que los deepfakes pueden replicar de manera convincente la imagen o la voz de una persona, el riesgo de suplantación de identidad aumenta.
Los cibercriminales han adoptado estas herramientas avanzadas para emplear tácticas más complejas. Por ejemplo, roban cuentas de aplicaciones de mensajería, como Telegram o WhatsApp; con los mensajes de voz en los chats crean grabaciones que imitan a los dueños de esas cuentas y las envían a contactos de confianza de las víctimas, como amigos, familiares o clientes, para estafarlos. Además, al poder manipular imágenes y vídeos, se realizan videollamadas suplantando la identidad de personas conocidas. Con estas técnicas, los delincuentes solicitan transferencias bancarias urgentes o información confidencial, aprovechando la confianza de otros para cometer fraude, tanto a nivel personal como empresarial. Es alarmante, pero posible.
Los ataques con deepfakes Han evolucionado de tal manera que los estafadores también recurren a imágenes y voces de celebridades o figuras públicas para difundir sus estafas. Estos incluyen desde anuncios falsos que promueven hacer inversiones en plataformas fraudulentas o inexistentes hasta estafas de tipo romántico en las que engañan a las víctimas para ganar su confianza y pedirles dinero. También han utilizado audios falsos en ataques dirigidos a individuos y sistemas bancarios con autenticación por voz.
En resumen, con la Inteligencia Artificial los delincuentes pueden automatizar la producción masiva de contenidos fraudulentos, haciendo que sus ataques sean más sofisticados y difíciles de detectar. Por eso, a medida que esta tecnología avanza, nuestra defensa debe enfocarse en dos frentes: técnico y educativo.
A nivel técnico, existen soluciones prometedoras que se pueden adoptar, como las marcas de agua, para etiquetar contenido generado por IA; detectores de deepfakespara identificar características específicas del contenido manipulado; y firmas digitales, las cuales ya se utilizan en transacciones bancarias y comunicaciones importantes, para verificar la autenticidad de imágenes, videos y audios alterados. El principal reto de estas medidas es evolucionar al mismo ritmo que los grandes modelos de lenguaje y la IA generativa, requiriendo una actualización constante para ser efectivas.
A nivel educativo, hay una brecha crítica: un desconocimiento de lo fácil que es explotar la Inteligencia Artificial. La ciberdelincuencia aprueba esta falta de conocimiento, lo que resalta la necesidad de un diálogo abierto y de campañas educativas sobre los riesgos.
Si bien los deepfakes y las estafas impulsadas por la IA presentan retos cada vez mayores, comprender estas amenazas es el primer paso para enfrentarlas. No hay por qué tener miedo, si combinamos soluciones y mejores prácticas de seguridad con una adecuada alfabetización cibernética, tanto usuarios como organización podemos reducir los riesgos y contribuir a la construcción de un entorno digital más seguro y resiliente.