Secciones
Innovación

Expertos alertan por nuevos fraudes digitales generados con IA: cómo detectar imágenes, audios y videos falsos

Las pérdidas superan los US$1.500 millones anuales y la detección se convierte en una carrera contra herramientas cada vez más sofisticadas.

Internet atraviesa una creciente ola de fraudes digitales impulsados por inteligencia artificial (IA), con imágenes, audios y videos falsos cada vez más difíciles de distinguir de la realidad. El fenómeno ya genera pérdidas millonarias para empresas y particulares en todo el mundo.

Según diversos informes, los contenidos manipulados o creados con IA provocaron el último año perjuicios superiores a los 1.500 millones de dólares (alrededor de un billón y medio de pesos chilenos). Entre los engaños más frecuentes figuran facturas falsas para reembolsos corporativos, fotografías alteradas para justificar seguros o devoluciones, imágenes de hechos que nunca ocurrieron y audios clonados utilizados para ordenar transferencias de dinero.

Frente a este escenario, gobiernos y compañías tecnológicas han comenzado a impulsar herramientas de detección. Plataformas como Vericta, IMGDetector.ai, RealReveal, Tenorshare o AI or Not analizan inconsistencias técnicas y rastros digitales para determinar si un archivo fue generado artificialmente. En el caso de Vericta —desarrollada con apoyo del Centro para el Desarrollo Tecnológico e Industrial de España y la Municipalidad de Barcelona— su tecnología permite identificar en segundos si un contenido es auténtico o no.

Para Georgina Viaplana, cofundadora y directora de la firma, el problema no es solo técnico, sino cultural: “Precisamente porque una imagen tiene tanto poder, vale la pena manipularla”; sería el razonamiento de los estafadores. La ejecutiva advierte que la verificación será clave en sectores como seguros, comercio electrónico, logística o mercado inmobiliario, donde una fotografía alterada puede traducirse en pérdidas económicas directas.

Las claves de la ciberseguridad ante fraudes digitales hechos por IA

Desde la industria de la ciberseguridad alertan que la detección no será infalible. “Es una carrera armamentística digital: cada mejora en detección provoca una mejora en generación”, explicó Hervé Lambert, responsable global de consumo en Panda Security en diálogo con la agencia de noticias EFE.

A su juicio, estas herramientas tendrán mayor adopción en entornos profesionales, como medios, tribunales o policías, pero menos entre usuarios comunes. “La mayoría de las personas no contrasta ni una noticia, menos aún una imagen que encaja con su narrativa”, señaló.

En lo que los expertos coinciden en que la regulación, la responsabilidad de las plataformas y la alfabetización tecnológica serán ejes fundamentales para enfrentar un fenómeno frente al cual, advierten, ninguna herramienta será suficiente por sí sola.

Notas relacionadas