Cuidado: un nuevo tipo de cibercrimen utiliza la Inteligencia Artificial y tu voz contra ti

El software avanzado de voz permite la aparición de nuevas estafas dirigidas principalmente a empresas, bancos y aseguradoras

por Ismael Marinero Medina /


Es bastante fácil falsificar una firma con fines fraudulentos. Sin embargo, hasta hace poco, elementos como nuestras voces han sido distintivos y muy difíciles de imitar. Un nuevo tipo de delito cibernético que utiliza la Inteligencia Artificial y tecnología de voz de última generación es una de las desafortunadas novedades del mundo digital. Ya no se puede confiar en lo que se ve, como han demostrado los deepfakes, y tampoco en lo que se escucha, según parece. Un caso de fraude de voz de 225.000 euros, destapado por el Wall Street Journal, es buena prueba de ello.

Hacker

Los hackers tienen nuevas posibilidades a su alcance gracias a la tecnología de voz y la Inteligencia Artificial (Unsplash).

En marzo, unos estafadores utilizaron un software de voz basado en Inteligencia Artificial para hacerse pasar por el director general de la matriz alemana de una importante empresa de energía del Reino Unido. El objetivo era engañar al CEO de la sucursal británica para que hiciera una transferencia monetaria urgente. La víctima hizo la transferencia solicitada a un supuesto proveedor húngaro, con la promesa de que la transferencia iba a ser reembolsada inmediatamente.

RELACIONADO: El ransomware, programas maliciosos capaces de secuestrar ordenadores y paralizar ciudades enteras

Sin embargo, cuando el reembolso aún no había aparecido en las cuentas, recibió otra llamada de su jefe desde Austria, solicitando otra transferencia urgente. Ese fue el momento en el que el director general sospechó. A pesar de reconocer la que parecía ser la voz de su superior, con el mismo acento y entonación, el CEO se negó a hacer la transferencia. Poco después, los fondos que había transferido a Hungría desaparecieron rumbo a México y luego se perdió su pista. De momento, las autoridades no han identificado a ningún sospechoso.

Rüdiger Kirsch, experto en fraudes de la aseguradora Euler Hermes, que cubrió la reclamación de la empresa de la víctima, afirma al WSJ que es la primera vez que la compañía de seguros afrontaba una reclamación derivada de este tipo de delitos. La investigación policial sobre el asunto ha terminado sin más certeza que el modus operandi de los hackers: utilizaron un software comercial de generación de voz para llevar a cabo el ataque, capaz de reproducir inflexiones, tonos y acentos de distintas voces con solo una pequeña muestra de la voz original. El hacker o hackers en cuestión solo tuvieron que escribir y el programa traducía automáticamente el texto a voz.

La policía y los expertos en ciberdelitos alertan sobre las crecientes capacidades de la tecnología de voz, una amenaza cada vez más real. El año pasado, Pindrop, una compañía que crea software de seguridad y protocolos para call centers, denunció un aumento del 350% en el fraude de voz entre 2013 y 2017, utilizado con el objetivo de engañar, principalmente, a cooperativas de crédito, bancos y aseguradoras.

RELACIONADO: Más noticias sobre Tecnologia

Dessa, compañía especializada en Inteligencia Artificial, ha advertido sobre otras inquietantes posibilidades, también para los ciudadanos de a pie: llamadas de terceros que se hacen pasar por miembros de la familia, voces falsas que se utilizan para obtener autorizaciones de alta seguridad o falsificaciones de audio de políticos que podrían causar un gran revuelo mediático o, directamente, manipular una elecciones. No todo iba a ser malo, Dessa también señala posibles desarrollos positivos de esta tecnología, como asistentes de voz más naturales o aplicaciones de texto a voz mejoradas para personas con discapacidad.