Tecnologia
Claves para que no lo estafen con la inteligencia artificial
Hace algunos años, cuando hablábamos de inteligencia artificial (IA), pensábamos en robots o programas capaces de realizar tareas automáticamente. En la actualidad, en términos sencillos, Esta tecnología permite a los ordenadores reconocer patrones en grandes cantidades de información y generar contenido nuevo.: texto, imágenes, audios o incluso vídeos que pueden parecer reales.
El problema es que esa misma tecnología también se usa para estar lejos. Y no se trata de ciencia ficción: ya hay casos en Colombia en los que personas han perdido dinero tras recibir llamadas con voces clonadas, videos falsos o mensajes extremadamente convincentes. generados por inteligencia artificial. La tecnología que antes estaba reservada para laboratorios ahora está al alcance de cualquiera con conexión a internet y eso ha cambiado el panorama del fraude digital.
LEA TAMBIÉN
Voz y video son replicables
Uno de los engaños que más están creciendo es la clonación de voz. Con apenas unos segundos de audio –que pueden obtenerse de un video en redes sociales, una nota de voz o incluso una llamada grabada–, los delincuentes pueden generar una réplica casi idéntica de la voz de una persona.
El escenario suele ser el mismo: una llamada urgente con guiones parecidos a estos: “Mamá, tuve un accidente”. “Estoy detenido, necesito que hagas una transferencia ya” o “Me robaron el celular, este es mi nuevo número”.
El tono es angustiado, la voz suena real, la historia parece coherente. Y en cuestión de minutos, la víctima realiza la transferencia. La inteligencia artificial no solo copia el timbre de voz; También puedes imitar pausas, acentos y emociones. Cuando se combina con información obtenida de redes sociales –viajes, familiares, lugares frecuentados por una persona–, el engaño se vuelve aún más creíble.
La IA es capaz de imitar el acento, las pausas y las emociones de las víctimas de estafa. Foto:iStock
Estos engaños también pueden incorporar imágenes con los deepfakes, que son videos manipulados mediante inteligencia artificial que permiten reemplazar el rostro o modificar la voz de una persona. En ese sentido, en la actualidad es posible crear un video falso en el que, por ejemplo, un “jefe” solicita un pago urgente, un supuesto funcionario da instrucciones o una figura pública promociona una inversión fraudulenta.
LEA TAMBIÉN

Aunque muchas veces hay pequeños detalles que delatan la manipulación –movimientos faciales extraños o sincronización imperfecta de labios–, no siempre son evidentes para el usuario promedio, especialmente si el mensaje llega en un momento de presión.
De otra parte, En Colombia, WhatsApp sigue siendo el canal favorito de los estafadores. Pero, a diferencia de antes, ahora muchos de mensajes esos ya no están mal redactados ni tienen errores evidentes porque la IA permite generar textos personalizados y coherentes.
En Colombia, WhatsApp sigue siendo el canal favorito de los estafadores Foto:iStock
El delincuente puede analizar información pública de sus víctimas en redes sociales y construir un mensaje casi a la medida.: “Hola, Carlos, vimos que hiciste una compra reciente. Necesitamos confirmar el pago antes del envío”.
El nombre correcto, el contexto adecuado y el momento preciso hacen que la víctima baje la guardia. Algunos fraudes combinan varias técnicas: primero llega un mensaje; luego, una llamada con voz clonada, y finalmente, un falso enlace para completar el pago.
¿Por qué este tipo de fraudes son tan peligrosos? Porque atacan algo fundamental: la confianza. Durante años nos enseñaron a desconfiar de correos mal escritos o de números desconocidos, pero ahora el fraude puede sonar perfecto, verso real y estar bien redactado.
LEA TAMBIÉN

Además, la IA permite automatizar ataques, con lo cual un estafador puede enviar millas de mensajes personalizados en cuestión de minutos. Y si solo cae un pequeño porcentaje de las personas, el fraude resulta rentable.
Ante estos riesgos, hay varias medidas que le permitirán estar más seguro, pero si ya fue víctima de una de estas estafas, recuerde que actuar rápido es fundamental. Mientras más rápido actúa, mayores son las probabilidades de limitar el daño.
En esos casos es importante que contacte de inmediato a su banco pora bloquear las transferencias que puedan hacer los delincuentes; reporte el número del estafador en WhatsAppdenuncia lo sucedido ante la Policía Nacional (Centro Cibernético Policial) y cambia las contraseñas.
Finalmente, recuerde que la inteligencia artificial no es el enemigo, es una herramienta poderosa con beneficios para la educación, la salud y la productividad. El problema no es la tecnología, sino su uso malintencionado. En un mundo donde la voz puede ser falsificada y el video manipulado, la mejor defensa sigue siendo la misma: pensar antes de reaccionar, verificar antes de transferir y nunca actuar bajo presión.
LEA TAMBIÉN

Medidas para protegerse
Aunque la tecnología evoluciona, hay medidas simples que siguen funcionando y que pueden ayudar a protegerse de las estafas potenciadas con IA:
– Desconfíe de la urgencia emocional: la mayoría de los fraudes se apoyan en el miedo o la prisa. Si un mensaje o llamada le exige actuar “ya mismo”, deténgase.
– Cuelgue y vuelva a llamar: si recibe una llamada sospechosa de un familiar, cuelgue y llame usted directamente al número que ya tenía guardado.
– Cree una palabra clave familiar: acuerde con su familia una palabra que pueda usar en situaciones de emergencia. Si la persona que lo llama o le escribe no conoce esa palabra, no haga ninguna transferencia.
– No compartir audios innecesarios en redes sociales: Cuantos más audios y vídeos estén disponibles públicamente, más fácil es para un delincuente entrenar un modelo de clonación de voz.
– Activa la verificación en dos pasos: en WhatsApp, en el correo electrónico y en sus cuentas de redes sociales.
– No entregue códigos de verificación: ninguna entidad seria le pedirá un código que llegue por SMS.
– Verifique antes de hacer inversiones: Si ve un video de una figura pública recomendando una inversión, confirme la información en medios oficiales.
Ph. D. Especialista en ciberseguridad.
