5 casos emblemáticos de fraude con IA que dejó el 2025 y las lecciones para el Perú

El avance acelerado de la inteligencia artificial (IA) ha permitido crear imitaciones casi perfectas de rostros y voces humanas, abriendo la puerta a una ola de fraudes basados en deepfakes que ya están dejando víctimas en el Perú, Latinoamérica y el mundo. En 2025, en el Perú se dieron a conocer desde suplantaciones de reconocidos periodistas promocionando inversiones hasta imitaciones de CEOs que buscaban autorizar transferencias. Estos casos revelan una necesidad urgente de reforzar los controles de identidad digital. Un estudio de Kaspersky indica que el 75% de peruanos desconoce qué es un deepfake, y Deloitte estima que la IA generativa podría causar pérdidas por fraude de hasta 40 mil millones de dólares para 2027, solo en Estados Unidos. En abril de 2025, el Congreso peruano aprobó la Ley N.º 32314, que incorpora la IA como agravante en delitos digitales como difamación, estafa, pornografía infantil y suplantación de identidad mediante deepfakes. La norma faculta a los jueces a aumentar hasta en un tercio las penas máximas establecidas legalmente. Por ejemplo, la pornografía infantil con deepfakes podrá castigarse con hasta 10 años de cárcel, mientras que la difamación podría llegar a 3 años. “El crecimiento del deepfake está llevando a que dejemos de confiar en lo que vemos y escuchamos. Por eso la prueba de vida se ha convertido en un escudo digital indispensable que garantiza que quien está al otro lado de la pantalla es una persona real y no una imagen manipulada. Es la base para proteger la identidad de los usuarios”, explica Alberto Juárez, vicepresidente global de identidad digital y servicios de confianza en Sovos. A continuación, los casos más emblemáticos de fraudes con deepfakes que dejó el 2025 y las lecciones para empresas y usuarios. 1 – Periodistas peruanos fueron utilizados para difundir estafas en redes sociales Durante 2024 y 2025, varios periodistas y presentadores peruanos —incluidos rostros de televisión— denunciaron videos deepfake en los que aparecían promoviendo inversiones falsas, como “bonos milagrosos” o plataformas fraudulentas. Las publicaciones imitaban casi a la perfección su voz y gestos. En algunos casos se usaron segmentos reales de entrevistas y se manipularon con IA para colocar mensajes que jamás pronunciaron. Este tipo de fraude no solo afecta a las víctimas que invierten dinero, también golpea la reputación de comunicadores y medios que ven su imagen usada como carnada. 2 – CEO de banco fue suplantado para recomendar plataformas de inversión En el último año, circuló un video manipulado con IA que usaba la imagen del CEO de un importante banco en Perú para promover supuestas inversiones. La propia entidad financiera, junto a especialistas en ciberseguridad, emitieron alertas sobre el uso de deepfakes dirigidos a sus clientes. Aunque no existe una sentencia pública ni cifras de pérdidas, el caso expuso la vulnerabilidad de las personas ante suplantaciones cada vez más sofisticadas. 3 – 50 mujeres fueron afectadas por pornografía con deepfake y extorsión en Arequipa En junio de 2025, la policía capturó en Arequipa a un hombre acusado de crear más de 50 deepfakes sexuales de mujeres, incluyendo menores de edad. El detenido utilizaba fotos sacadas de redes sociales para generar contenido pornográfico falso y luego extorsionar o acosar a las víctimas. El caso es uno de los primeros en Perú que se investiga explícitamente bajo el marco de la Ley N.º 32314 dado que incluye uso de IA para generar material sexual falso, lo que agrava la pena. El estudio State of deepfakes 2023 de Security Heroes indica que el 98% de los videos en internet que suplantan identidades con IA son pornográficos y que el 99% de las víctimas son mujeres, una tendencia que este caso confirma para la región. 4 – La modelo brasileña víctima de robo de identidad para estafas masivas En Brasil, un caso viral involucró a la reconocida modelo brasileña Gisele Bündchen cuya imagen fue clonada para crear videos promocionando inversiones y productos inexistentes. Los deepfakes eran tan realistas que muchos seguidores creyeron que la modelo realmente recomendaba la plataforma. La estafa se expandió rápidamente en WhatsApp, TikTok e Instagram, generando cientos de víctimas en Brasil y otros países de la región. La modelo denunció penalmente el caso e inició acciones civiles contra los responsables. 5 – El deepfake del director financiero que costó 25 millones de dólares La empresa británica Arup fue víctima de un fraude millonario cuando un empleado fue engañado por deepfakes que imitaban al director financiero y otros ejecutivos. Durante una videollamada falsa, el trabajador autorizó 15 transacciones por un total de 25 millones de dólares a cuentas fraudulentas en Hong Kong. Se trata de uno de los casos corporativos más costosos conocidos hasta la fecha vinculados directamente con manipulación audiovisual generada por IA. Recomendaciones para protegerse de los deepfakes De acuerdo con el experto de Sovos, en los próximos cinco años, el conocimiento sobre los deepfake crecerá en la región, no solo por su popularidad en redes sociales, sino porque cada vez serán más utilizados en fraudes. Esto hará que la prueba de vida se convierta en un estándar en sectores como la banca, la salud y la educación. “La misión está en fomentar el pensamiento crítico y el conocimiento digital para que las personas aprendan a detectar contenido falso y confíen en herramientas seguras para proteger su identidad. Además, las compañías deben informar y educar, ya que muchas veces el miedo viene de la falta de información”, enfatiza Alberto Juárez. Además, recomienda estas acciones para no ser la próxima víctima de suplantación de identidad y fraudes de deepfake: 1. Verifica antes de confiar: Si un video o mensaje te parece demasiado bueno para ser verdad, probablemente no lo sea. Busca siempre la fuente original y contrasta la información en medios confiables o sitios oficiales antes de compartirla o actuar en base a ella. 2. Protege tu imagen en redes sociales: Evita publicar fotos, videos y audios en exceso. Cuanta más información personal haya disponible, más fácil será que otros la usen para crear un deepfake convincente. 3. Aprende a utilizar herramientas de verificación: Existen plataformas gratuitas como InVID, FotoForensics o la búsqueda inversa de imágenes en Google que permiten detectar si un contenido ha sido alterado o ya circuló antes con otro contexto. 4. Mantén tu software y apps actualizados: Muchas soluciones de seguridad lanzan actualizaciones para mejorar la detección de fraudes. No pospongas estas actualizaciones; son clave para proteger tus dispositivos. 5. Informa y educa a quienes te rodean: Habla sobre los deepfakes con tu familia, amigos y colegas. Mientras más personas entiendan el problema, menos probable será que caigan en estafas o difundan contenido falso. 6. No envíes dinero sin verificar la identidad: Si alguien te pide dinero por mensaje, llamada o videollamada (incluso si parece un conocido o famoso) verifica la identidad por otro canal antes de hacer cualquier transferencia. 7. Utiliza proveedores con experiencia probada: Si tienes una empresa, trabaja con compañías o plataformas que tengan trayectoria comprobada en seguridad digital e identidad. Revisa sus certificaciones, casos de éxito y opiniones de clientes. Un proveedor confiable invierte constantemente en tecnología para detectar fraudes y proteger tu información. Los deepfakes ya no son una curiosidad tecnológica: son una amenaza real que evoluciona más rápido que la capacidad de respuesta de las instituciones. Frente a ello, los desafíos para el Perú y la región están en elevar la alfabetización digital de la ciudadanía y adoptar sistemas de autenticación robustos que mantengan a salvo la identidad de las personas.
Compartir:

Relacionado

Realiza y responde llamadas por texto con Galaxy AI

El Noticiero

Ataques de phishing creados por Deepfakes y GenAI

El Noticiero

Huggies lanza la primera herramienta que analiza las heces del bebé a partir de su coloración

El Noticiero