Los investigadores creen que el dinero robado se envió a cuentas bancarias en diferentes países del mundo, incluyendo 400.000 dólares a EE.UU.
Un grupo de ciberdelincuentes clonó la voz del director de una empresa y logró estafar más de 35 millones de dólares a un banco de Emiratos Árabes Unidos, informó este jueves Forbes citando un documento judicial al que ha tenido acceso.
A principios del año pasado, el gerente de un banco del país árabe recibió la llamada de un hombre cuya voz era idéntica a la de un empresario con el que ya había tenido trato. Este le comentó que su compañía estaba a punto de realizar una adquisición, por lo que necesitaba que autorizara una serie de transferencias por valor de 35 millones de dólares.
Tecnología de 'voz profunda'
El individuo le dijo que había contratado a un abogado llamado Martin Zelner para coordinar las transacciones, tras lo cual el banco recibió varios correos electrónicos del supuesto empresario y del letrado en los que se confirmaba la cantidad de dinero que era necesario mover y a dónde. El gerente, creyendo que todo estaba en orden, dio luz verde a las operaciones sin saber que había sido engañado mediante una tecnología de inteligencia artificial conocida como 'voz profunda'.
La Fiscalía de Dubái, que dirige la investigación, cree que se trata de un elaborado plan que involucró al menos a 17 personas.
Los fiscales piensan que el dinero fue enviado a cuentas bancarias repartidas por diferentes partes del mundo, incluyendo 400.000 dólares a cuentas con sede en EE.UU. gestionadas por Centennial Bank, motivo por el que han solicitado la ayuda de investigadores del país norteamericano para rastrear el dinero.
"Falsificaciones increíblemente peligrosas"
"Las falsificaciones profundas de audio y visuales representan el fascinante desarrollo de la tecnología del siglo XXI, pero también son potencialmente increíblemente peligrosas y representan una gran amenaza para los datos, el dinero y las empresas", comentó Jake Moore, expolicía británico y experto en ciberseguridad de la compañía ESET.
En su opinión, cada vez habrá más casos de manipulación de audios porque es más sencillo que hacer videos 'deepfake'. "Sin la educación ni el conocimiento de este nuevo tipo de vector de ataque, así como mejores métodos de autentificación, es probable que más empresas sean víctimas de conversaciones muy convincentes", advirtió.
No es la primera vez que se utilizan herramientas de modelado de voz para llevar a cabo fraudes de este tipo. En 2019, un grupo de ciberdelincuentes se hizo pasar por el director general de una empresa de energía con sede en Reino Unido para intentar hacerse con 240.000 dólares.
Comentarios