Un banco del Reino Unido revela que el 28% de los adultos han sido víctimas de una estafa de voz con inteligencia artificial: “Puede clonar su voz en 3 segundos y vaciar su cuenta bancaria”


Starling Bank, un banco del Reino Unido, ha emitido una advertencia sobre un reciente aumento de estafas que emplean inteligencia artificial (IA) para imitar las voces de las personas.

El banco británico advierte a la comunidad internacional sobre la aparición de estafas de clonación de voz mediante inteligencia artificial. Según un comunicado de prensa, el banco está manejando actualmente cientos de casos de este tipo y estas actividades fraudulentas podrían estar dirigidas a personas con cuentas en las redes sociales. Según datos recientes publicados por Starling Bank:

  • El 28 por ciento de los adultos del Reino Unido creen que han sido objeto de una estafa de clonación de voz mediante inteligencia artificial durante el último año.
  • Sin embargo, casi la mitad (46 por ciento) de los adultos del Reino Unido desconocen la existencia de este tipo de estafa.
  • Sólo el 30 por ciento de los adultos del Reino Unido están familiarizados con las señales de alerta a las que deben prestar atención si se convierten en el objetivo de una estafa de clonación de voz.

El auge de las estafas de clonación de voz mediante inteligencia artificial

Los mismos datos sugieren que los delincuentes ahora pueden replicar la voz de una persona utilizando tan solo tres segundos de audio. Para generar conciencia sobre las estafas de clonación de voz mediante inteligencia artificial, Starling Bank lanzó la campaña “Safe Phrases” junto con la campaña del gobierno Stop! Think Fraud.

“La gente publica regularmente contenido en línea que contiene grabaciones de su voz, sin siquiera imaginarse que eso los hace más vulnerables a los estafadores”, dijo Lisa Grahame, directora de seguridad de la información de Starling Bank, en el comunicado de prensa.

La campaña Frases seguras de Starling Bank sugiere que las personas establezcan una “Frase segura” única que solo conozcan sus amigos y familiares cercanos. Esta frase puede usarse para verificar la autenticidad de su identidad durante las conversaciones.

Supongamos que alguien se pone en contacto con una persona que dice ser un amigo o familiar, pero que no está familiarizado con la frase de seguridad acordada. En ese caso, debería sospechar inmediatamente que podría tratarse de un intento fraudulento.

El año pasado se denunció un caso en Arizona (EE. UU.) en el que una mujer afirmaba que los estafadores utilizaban inteligencia artificial para replicar la voz de su hija de 15 años y exigían un rescate de un millón de dólares. Esta situación podría haberse evitado parcialmente si hubieran establecido una frase segura.

Los delitos de fraude financiero están aumentando en Inglaterra y Gales debido a las técnicas cada vez más sofisticadas que emplean los delincuentes para extorsionar dinero. Según UK Finance, estos delitos aumentaron un 46 por ciento el año pasado.

Los peligros de la clonación de voz para la seguridad personal y financiera

El año pasado, se informó de que los estafadores estaban creando anuncios de empleo fraudulentos dirigidos específicamente a solicitantes de empleo del Reino Unido. A continuación, engañaban a estas personas para que vendieran productos falsificados en línea y los estafadores acababan llevándose las ganancias.

Además, la investigación de Starling reveló que el adulto medio del Reino Unido ha sido víctima de una estafa cinco veces en los últimos doce meses. “La gente suele publicar contenido en Internet que contiene grabaciones de su voz, sin imaginarse jamás que eso les hace más vulnerables a los estafadores”, afirmó Lisa Grahame, directora de seguridad de la información de Starling Bank.

“Los estafadores solo necesitan tres segundos de audio para clonar tu voz, pero solo se necesitarían unos minutos con tu familia y amigos para crear una Frase Segura para frustrarlos. Por eso es más importante que nunca que la gente esté al tanto de este tipo de estafas que perpetran los estafadores y sepa cómo protegerse a sí mismos y a sus seres queridos para no ser víctimas”, agregó el alto ejecutivo.

Ella dijo: “Esperamos que a través de campañas como esta, podamos brindarle al público la información que necesita para mantenerse a salvo. Simplemente tener una Frase Segura en vigencia con amigos y familiares de confianza, que nunca se comparte digitalmente, es una forma rápida y fácil de asegurarse de poder verificar quién está del otro lado del teléfono”.

Para iniciar la campaña, Starling Bank ha contado con la participación del reconocido actor James Nesbitt, cuya voz ha sido clonada mediante tecnología de inteligencia artificial, lo que pone de relieve la facilidad con la que cualquiera podría ser víctima de este tipo de estafas.



Source link