Starling Bank alerta sobre el aumento de las estafas con inteligencia artificial

El auge de la inteligencia artificial ha facilitado a los estafadores replicar voces con solo unos segundos de audio, generando nuevas formas de fraude que ya han afectado a miles de personas

Starling Bank, una entidad financiera exclusivamente en línea, ha alertado sobre un nuevo tipo de fraude que está ganando terreno gracias a la inteligencia artificial (IA). Según el banco, los estafadores pueden replicar la voz de una persona a partir de tan solo tres segundos de audio.

Este audio puede obtenerse de videos publicados en redes sociales u otras plataformas en línea. Una vez que los delincuentes han clonado la voz, pueden identificar a familiares y amigos de la víctima y realizar llamadas telefónicas falsas, solicitando dinero bajo el pretexto de una emergencia.

Este tipo de estafas con IA tiene el potencial de engañar a millones de personas, advirtió Starling Bank en un comunicado reciente. De hecho, ya ha afectado a cientos de individuos. En una encuesta realizada por el banco junto con Mortar Research, que incluyó a más de 3,000 adultos, más del 25% de los encuestados afirmaron haber sido objetivo de este tipo de estafa en los últimos 12 meses.

La falta de conciencia sobre el peligro

A pesar de que estas estafas están en aumento, un sorprendente 46% de los encuestados admitió no estar al tanto de la existencia de este tipo de fraudes. Lo que resulta aún más alarmante es que un 8% de las personas estaría dispuesto a transferir dinero a un amigo o familiar, incluso si la llamada les pareciera sospechosa.

Lisa Grahame, directora de seguridad de la información en Starling Bank, destacó en el comunicado que muchas personas comparten contenidos en línea donde su voz es fácilmente accesible, sin ser conscientes de que esto podría convertirlas en objetivos de los estafadores.

Cómo protegerse ante las estafas con IA

Starling Bank recomienda establecer una frase segura con familiares y amigos cercanos. Se trata de una frase sencilla y aleatoria, fácil de recordar, que se puede usar para verificar la identidad de la persona en llamadas telefónicas.

Sin embargo, el banco sugiere no compartir esta frase a través de mensajes de texto, ya que los delincuentes podrían interceptarla. En caso de hacerlo, aconsejan eliminar el mensaje una vez que la otra persona lo haya leído.

A medida que la inteligencia artificial avanza y se vuelve cada vez más precisa en imitar voces humanas, crece la preocupación por su uso indebido. Este tipo de tecnología no solo puede facilitar fraudes, sino también ayudar a los criminales a acceder a cuentas bancarias y difundir desinformación.

Un fenómeno creciente: estafas con IA en diferentes formas

El fraude por clonación de voz no es el único tipo de estafa facilitada por la inteligencia artificial. Existen otras modalidades que están ganando notoriedad. Los estafadores también están utilizando IA para generar correos electrónicos falsos que imitan el estilo de escritura de personas conocidas o para crear videos deepfake, donde la imagen de una persona es alterada para decir o hacer cosas que nunca ocurrieron. Estos videos, aunque en ocasiones son utilizados para bromas o entretenimiento, tienen un potencial peligroso cuando se aplican en fraudes o campañas de desinformación.

Un ejemplo reciente de las precauciones en torno a la IA lo ofreció OpenAI, la empresa detrás de ChatGPT. A pesar de haber desarrollado una herramienta llamada Voice Engine, capaz de replicar voces con alta fidelidad, decidió no lanzarla al público debido a los riesgos asociados al mal uso de voces sintéticas.

La combinación de estos avances en inteligencia artificial y la falta de concienciación entre el público general ha generado una tormenta perfecta para los estafadores. Por ello, es fundamental estar informados y tomar medidas proactivas para evitar ser víctimas de este tipo de fraudes en la era digital.

Otras estafas con IA comunicadas en el último año

No solo la clonación de voz ha ganado terreno como herramienta para el fraude. En el último año, se han reportado diversos tipos de estafas impulsadas por IA que han afectado tanto a particulares como a empresas. Entre las más destacadas se encuentran:

Deepfakes visuales

La IA puede generar vídeos falsos que muestran a personas diciendo o haciendo cosas que nunca ocurrieron. Estos vídeos han sido utilizados para desprestigiar a figuras públicas o extorsionar a víctimas con amenazas de difundir imágenes comprometedoras.

Fraudes financieros mediante IA

Los estafadores han comenzado a usar modelos generativos de IA para analizar patrones en transacciones bancarias y, en función de estos, intentar vulnerar sistemas de seguridad o engañar a empleados de empresas mediante correos electrónicos fraudulentos con datos personalizados.

Suplantación en videollamadas

Aprovechando la tecnología deepfake, los estafadores han logrado crear avatares de personas reales para realizar videollamadas, haciéndose pasar por directivos o empleados y solicitando transferencias de dinero o información confidencial.

Fraude en redes sociales

Los perfiles falsos impulsados por IA, con imágenes y textos generados artificialmente, se han multiplicado en plataformas sociales, donde logran engañar a usuarios para obtener datos personales o realizar estafas sentimentales y financieras.

Tipos de deepfakes y cómo funcionan

De voz

Utilizan IA para replicar la voz de una persona a partir de unos segundos de audio. Son empleados en llamadas telefónicas para suplantar a alguien y pedir dinero o información.

De vídeo

Consisten en la creación de vídeos falsos en los que una persona aparece realizando o diciendo cosas que nunca sucedieron. Se usan para desinformación o extorsión.

En videollamadas

Los delincuentes utilizan avatares digitales generados mediante IA para suplantar a personas en tiempo real en videollamadas, generalmente con el objetivo de obtener información confidencial o dinero.

De imágenes estáticas

Generación de fotos realistas de personas inexistentes o la manipulación de imágenes existentes para mostrar a alguien en situaciones comprometedoras o falsas.

elprogreso

Facebook
Twitter
LinkedIn
WhatsApp

Actualidad

Inscribete en nuestros cursos Online