Generales Escuchar artículo

Amenaza por nueva modalidad de fraude: intentaron estafarla suplantando la voz de su marido con IA

Un nuevo método de fraude utiliza tecnología avanzada para imitar voces de seres queridos, poniendo en riesgo la seguridad familiar. La mujer denunció el hecho y su marido había recibido previamente llamadas extrañas en las que creen lo grabaron para recrear un audio

Amenaza por nueva modalidad de fraude: intentaron estafarla suplantando la voz de su marido con IA

Un nuevo método de fraude utiliza tecnología avanzada para imitar voces de seres queridos, poniendo en riesgo la seguridad familiar. La mujer denunció el hecho y su marido había recibido previamente llamadas extrañas en las que creen lo grabaron para recrear un audio

Una mujer estuvo a punto de ser víctima de una estafa en la que suplantaron la voz de su marido utilizando inteligencia artificial. Este incidente comienza a poner de manifiesto una nueva alerta y la necesidad de tomar precauciones adicionales para protegerse contra fraudes cada vez más sofisticados con las nuevas tecnologías reinantes.

El intento de estafa comenzó cuando la mujer recibió una llamada de un número desconocido. La voz al otro lado del teléfono decía: «¡Hola! No te puedo llamar, envíame un mensaje a este número». Aunque la voz le resultaba familiar, decidió verificar la autenticidad de la llamada contactando a su esposo, quien le aseguró que él no la había llamado y que no tenía problemas.

 

A la mujer la inquietó el gran parecido que tenía esa voz con la de su pareja y descubrieron que había sido generada con inteligencia artificial, en lo que parecía un intento de estafa que la víctima consiguió esquivar con la asistencia del Instituto Nacional de Ciberseguridad (Incibe) de España, donde sucedió el hecho.

El hombre recordó que, días antes, había recibido varias llamadas "extrañas" en las que al contestar solo escuchaba un pitido o le pedían datos personales. Es posible que los estafadores hayan grabado su voz durante estas llamadas para recrear el audio falso con inteligencia artificial. Según Incibe: "Es suficiente con unos pocos segundos de grabación para poder generar un audio suplantando esa misma voz".

Después del incidente, la mujer contactó con la línea 017 del servicio "Tu ayuda en ciberseguridad" del Incibe. Desde allí, le recomendaron varias acciones: avisar a sus contactos sobre el intento de estafa, bloquear el número desde el que recibió la llamada, informar a la Policía Nacional o la Guardia Civil, y practicar "egosurfing" para comprobar si hay información personal suya publicada sin su consentimiento.

El Instituto también aconseja siempre verificar la información cuando se recibe una llamada sospechosa, no facilitar datos personales ni bancarios, y no seguir indicaciones sin antes confirmar la identidad del interlocutor. Una medida preventiva eficaz es acordar una palabra clave entre familiares y amigos para usar en situaciones dudosas y así corroborar la identidad de la persona que llama.

Este caso presenta la importancia de estar alerta y tomar medidas para protegerse de las estafas que se renuevan y ahora utilizan tecnologías avanzadas para suplantar identidades. Las familias deberán empezar a estar preparadas y quizás acordar en secreto algunas estrategias de verificación o preguntas clave para no caer en situaciones como éstas y evitar malos momentos.

 

diariochaco

Comentarios
Volver arriba