InvezzInvezz

Deepfake: la empresa británica Arup es víctima de una estafa de 25 millones de dólares, ¿cómo puede protegerse?

Invezz

La multinacional británica de diseño e ingeniería Arup, conocida por edificios emblemáticos como la Ópera de Sídney, confirmó que fue objeto de una estafa deepfake.

Este sofisticado fraude resultó en que uno de sus empleados de Hong Kong transfiriera 25 millones de dólares a estafadores.

¿Cuál fue el fraude?

Arup notificó a la policía de Hong Kong en enero sobre el incidente y confirmó que se utilizaron voces e imágenes falsas.

La estafa involucró a un trabajador de finanzas que fue engañado para que asistiera a una videollamada con personas que creía que eran el director financiero y otros miembros del personal, todos los cuales eran recreaciones falsas.

A pesar de las sospechas iniciales de un correo electrónico de phishing, la apariencia realista y las voces de sus supuestos colegas llevaron al empleado a proceder con las transacciones, por un total de 200 millones de dólares de Hong Kong (25,6 millones de dólares) en 15 transferencias.

La creciente amenaza de la tecnología ultrafalsa

El incidente subraya la creciente sofisticación de la tecnología deepfake.

Rob Greig, director de información global de Arup, dijo:

“Como muchas otras empresas en todo el mundo, nuestras operaciones están sujetas a ataques regulares, incluido el fraude de facturas, estafas de phishing, suplantación de voz de WhatsApp y deepfakes”.

El número y la sofisticación de estos ataques han aumentado considerablemente, lo que plantea importantes desafíos para las empresas de todo el mundo.

Preocupación global y respuesta interna

Las autoridades de todo el mundo están cada vez más preocupadas por los usos maliciosos de la tecnología deepfake.

En un memorando interno, el presidente regional de Arup en Asia Oriental, Michael Kwok, enfatizó la creciente frecuencia y sofisticación de estos ataques, instando a los empleados a mantenerse informados y alertas para detectar diferentes técnicas de estafa.

Resiliencia operativa e investigación en curso

A pesar de la importante pérdida financiera, Arup aseguró que su estabilidad financiera y sus operaciones comerciales no se vieron afectadas y que ninguno de sus sistemas internos se vio comprometido. La empresa continúa trabajando con las autoridades y la investigación está en curso.

Este incidente de alto perfil resalta la necesidad urgente de que las empresas mejoren sus medidas de ciberseguridad para combatir la creciente amenaza de la tecnología deepfake y otras estafas sofisticadas.

¿Qué es un deepfake?

Un deepfake es contenido generado mediante técnicas de aprendizaje profundo que parece real pero es fabricado. La inteligencia artificial ( IA ) utilizada para crear deepfakes suele emplear modelos generativos, como redes generativas adversas (GAN) o codificadores automáticos.

Los deepfakes pueden ser vídeos, grabaciones de audio o imágenes que muestran a personas o grupos haciendo o diciendo cosas que nunca hicieron.

Para producir contenido convincente, la IA debe entrenarse en grandes conjuntos de datos para reconocer y replicar patrones naturales.

La tecnología deepfake, si bien es innovadora, abre oportunidades peligrosas para el uso ilegal, incluido el robo de identidad, la falsificación de pruebas, la desinformación, la difamación y la elusión de la seguridad biométrica.

Los estafadores suelen aprovechar la autoridad de la persona representada o su conexión personal con sus objetivos.

Tipos de deepfakes

Los deepfakes pueden producir contenido de vídeo, audio o imágenes, utilizados como medios grabados o en transmisiones en tiempo real. Estos formatos se pueden encontrar en varios escenarios, desde publicaciones en redes sociales hasta llamadas telefónicas y videoconferencias.

Intercambio de rostros: esta aplicación reemplaza los rasgos faciales de una persona objetivo con rasgos falsos, a menudo de otra persona.

Técnicas como la detección y manipulación de puntos de referencia faciales hacen que la combinación sea perfecta y difícil de detectar cuando se toma desprevenido.

Clonación de voz: esta técnica replica la voz de un individuo. Se necesitan datos de audio de alta calidad de grabaciones de la persona objetivo hablando en diversos contextos para entrenar un modelo de clonación de voz.

Vídeos deepfakes en tiempo real

Los deepfakes de vídeo en tiempo real generan contenido de vídeo manipulado instantáneamente durante transmisiones en vivo y videollamadas.

La clonación de voces y el intercambio de rostros se utilizan con frecuencia para crear un entorno falso convincente. El software de generación de deepfake puede integrarse con plataformas de streaming y herramientas de videoconferencia de varias formas:

Una aplicación separada captura, procesa y envía el video manipulado al software de conferencia.

Integración directa en software de videoconferencia como función o complemento opcional.

Usar una cámara virtual para interceptar la transmisión de video de la cámara física y generar la transmisión manipulada.

¿Cómo protegerse contra los deepfakes?

A medida que avanza la tecnología deepfake, es fundamental protegerse a usted y a su organización del fraude. A continuación se muestran algunas formas de protegerse contra los deepfakes:

Tenga cuidado con las señales de alerta: busque expresiones o movimientos faciales poco realistas, inconsistencias en la iluminación y las sombras, movimientos antinaturales de la cabeza o el cuerpo y calidad de audio y video que no coincida.

Sea proactivo si sospecha: participe en una conversación informal para tomar desprevenido a un farsante. Pídele a la persona que comparta su pantalla o confirme su identidad brindando información exclusiva o enviando un mensaje de confirmación a través de un canal diferente.

Configure una frase de contraseña: establezca una contraseña o frase de contraseña para temas delicados con colegas y familiares. Este método es eficaz en comunicaciones de voz, vídeo y texto.

La tecnología deepfake presenta riesgos importantes que requieren vigilancia y medidas proactivas para mitigarlos.

Al comprender los tipos de deepfakes e implementar estrategias para identificarlos y contrarrestarlos, las personas y las organizaciones pueden protegerse mejor de posibles fraudes.

A medida que la IA generativa continúa desarrollándose, mantenerse informado y preparado es crucial para protegerse contra la creciente amenaza de los deepfakes.