Nueva modalidad de estafas virtuales con IA alerta a los usuarios: ¿Cómo evitarlas?

SEGURIDAD

Nueva modalidad de estafas virtuales con IA alerta a los usuarios: ¿Cómo evitarlas?

Esta novedosa tecnología se puede utilizar para suplantar la identidad de famosos, o para engañar a familiares y amigos y pedir dinero a cambio.

Las estafas virtuales evolucionan rápidamente, y la Inteligencia Artificial (IA) se convirtió en una herramienta clave para los delincuentes que buscan nuevas formas de engañar a sus víctimas.

En los últimos meses se detectó una preocupante modalidad en la que se utiliza IA para suplantar identidades, tanto de celebridades como de personas cercanas, con el objetivo de solicitar dinero o acceder a información personal y datos bancarios. 

Casos famosos

En Argentina, la conductora y periodista de streaming Nati Jota denunció en sus redes sociales que habían suplantado su identidad mediante IA en un video de Instagram en el que se promovía una estafa.

También Shakira fue víctima de una estafa similar, en la que se utilizó su imagen e identidad para promocionar un supuesto proyecto de inversión.

El caso recuerda al del actor norteamericano Tom Hanks, ocurrido en octubre de 2023, en el que denunció que utilizaban una versión de él recreada mediante IA para promocionar un plan de seguro dental falso.

Un año antes, en 2022, el propio magnate Elon Musk – propietario de X y director de Tesla – apareció en un video falso creado con IA en el que se promocionaba una plataforma de criptomonedas.

La IA en casos de fraude telefónico

Las nuevas modalidades de estafas incluyen la utilización de IA para imitar la voz de familiares y conocidos, en una práctica delictiva que se conoce como “vishing”.

La palabra vishing proviene de la combinación de la palabra voz (voice en inglés) y phishing (una técnica de estafa en el que se utiliza una línea telefónica para engañar a las víctimas y obtener información delicada o datos bancarios / financieros).

A esta modalidad se suma el AI vishing, en el que se engaña a las víctimas de la estafa haciéndoles creer que están hablando con un familiar o amigo, pero se trata de recreaciones de su voz mediante inteligencia artificial.

¿Cómo evitar ser víctimas de vishing?

Es importante tomar algunas medidas preventivas:

Escuchá con atención: Prestá atención a la calidad del sonido y la pronunciación. Las imperfecciones en la entonación o palabras mal pronunciadas pueden ser señales de un audio manipulado.

Evaluá el lenguaje y el tono: Analizá si la persona habla como lo haría normalmente. Preguntate si un familiar usaría ese tono o esas palabras en una conversación habitual.

Confiá en tu sentido común: Si algo no parece correcto, es probable que no lo sea. Reflexioná sobre la situación y buscá señales que puedan alertarte de un intento de estafa.

Tomá precauciones con llamadas desconocidas:

  • Evitá responder a llamadas de números que no reconocés.
  • Activá alertas de llamadas anti-spam en tu dispositivo Android o iOS.
  • Si no contás con estas alertas, utilizá una aplicación como True Caller para identificar números sospechosos.

Protegé tu información: Nunca compartas datos personales o sensibles con personas que no conocés, especialmente si te llaman desde números desconocidos.