El auge de la inteligencia artificial trae consigo nuevos peligros para las empresas: los deepfakes. De acuerdo con el informe IA Regulations Worldwide 2025, elaborado por Statista, al menos el 21% de empresas a nivel mundial ha sido víctima de un ataque con contenido falsificado por IA.
Los deepfakes generados por Inteligencia Artificial (IA) se están convirtiendo en una amenaza para el corporativo. Se trata de contenidos audiovisuales falsificados a través de esta herramienta para simular con gran realismo a una persona real, alterando su voz, rostro o movimientos para engañar al receptor.
El impacto ya se ha podido plasmar. Statista elaboró el informe AI Regulations Worldwide 2025 en el que se señala que al menos una de cada cinco empresas ya ha sido víctima de deepfakes. Es decir, el 21% de las empresas a nivel mundial ya ha sido víctima de un ataque con contenido sintético. En Estados Unidos, este número asciende al 27.
Amenazas de deepfakes a las empresas
Los deepfakes no son únicamente experimentos digitales, sino que pueden llegar a fraudes financieros y extorsiones. Incluso, se han reportado robos de identidad y daño reputacional. Entre las principales amenazas destaca engañar a empleados, manipular inversionistas o provocar decisiones erróneas con gran impacto corporativo.
Aquí algunos de los casos más comunes:
Transacciones financieras fraudulentas
Los ciberdelincuentes usan deepfakes para suplantar la identidad de altos ejecutivos durante llamadas telefónicas o videoconferencias, convenciendo a otros que ostentan autoridad. Así es como obtienen información confidencial e incluso logran que se les transfiera importantes sumas de dinero.

Desinformación
Los videos o contenido audiovisual generado con deepfakes pueden difundir información fraudulenta, falsa y difamatoria sobre personas y organizaciones, lo que podría dañar la confianza de las partes interesadas, los clientes o incluso el público en general.

Ataques de ingeniería social rediseñados
Los ciberdelincuentes también se logran infiltrar en las organizaciones a través del uso de deepfakes. Por ejemplo, suplantan la identidad de un director de tecnología para persuadir al personal de que les conceda acceso a un sistema restringido.

Estos son solo algunos ejemplos de la capacidad de los deepfakes. Por ello, la Unión Europea ha empezado a exigir transparencia en los sistemas generativos y etiquetado de contenido sintético.









