La inteligencia artificial (IA) se ha convertido en la aliada perfecta de los estafadores. Gracias a los avances en la tecnología de clonación de voz, ahora pueden imitar las voces de personas cercanas o de confianza para engañar y lograr que sus víctimas entreguen dinero o información personal. Estas estafas se están volviendo cada vez más comunes. Estudios recientes muestran que una de cada cuatro personas adultas ha sido afectada por estafas con voces generadas por IA, causando pérdidas de hasta $2.7 mil millones a nivel mundial.

Aquí te contamos lo que necesitas saber para protegerte de este tipo de fraudes.

Entendiendo la Amenaza.

La clonación de voz usa IA para imitar la manera de hablar de una persona a partir de muestras reales de su voz. Aunque las voces generadas por IA tienen usos legítimos, como asistentes virtuales, también se han convertido en una herramienta peligrosa para los estafadores. Estas personas pueden hacerse pasar por un ser querido o alguien con autoridad para engañar a las víctimas y lograr que compartan información confidencial o envíen dinero.

Lo más preocupante es que este tipo de estafa suele generar un falso sentido de urgencia, presionando a las víctimas a actuar rápido para beneficio del estafador.

Casos de la Vida Real.

Para entender mejor cómo operan los estafadores digitales, aquí te compartimos dos casos de la vida real donde se usó IA para engañar a personas:

  • En Hong Kong, un empleado del área financiera en una empresa multinacional fue engañado para transferir $25 millones^. ¿Cómo? Los estafadores usaron tecnología deepfake para hacerse pasar por el Director Financiero durante una videollamada. Lo más sorprendente: todas las personas en la llamada eran generadas por IA.
  • Nikki MacLeod, de 77 años, fue víctima de una estafa romántica en línea. Aunque al principio tenía dudas, fue convencida por videos que parecían mensajes reales de su supuesto compañero sentimental. En total, Nikki envió tarjetas de regalo y transferencias por PayPal que sumaban £17,000^. Después descubrió que todo había sido creado por IA.

Cómo Protegerte.

Tu mejor defensa es estar informado. Saber que este tipo de estafas existen y mantenerte alerta sobre todo si alguien te pide dinero o información personal es clave para cuidarte. Algunas señales de advertencia que pueden ayudarte a detectar un intento de fraude con voz generada por IA:

  • Silencio inusual o sin ruidos de fondo
  • Voz robótica o con patrones de habla poco naturales
  • Mensajes con urgencia emocional o que apelan a tus sentimientos
  • Llamadas de números desconocidos

Los estafadores suelen enfocarse en personas vulnerables, como jóvenes adultos y personas mayores. Por eso, es importante hablar con tu familia sobre este tipo de estafas y cómo reconocerlas. A medida que la tecnología avanza, estas estafas se volverán aún más elaboradas y difíciles de detectar. Mantenerte informado y actuar con precaución sigue siendo tu mejor protección.

Para más consejos, visita nuestra página de Smart Cents en español.

^Página en inglés

“Esta página puede contener enlaces a sitios web externos. Estos enlaces se muestran para tu conveniencia.  FirstBank no administra estos sitios y no asume ninguna responsabilidad por el contenido, los enlaces, la política de privacidad o la política de seguridad.”

Published: June 11, 2025