IAB NEWS Por IAB

Detección avanzada: La función de la IA para reconocer deepfakes

Esta es la forma en que la detección avanzada de la inteligencia artificial identifica deepfakes. Úsala y protégete ante ciberataques.

15 MAY 2024 5 min read
  • 01

De acuerdo con un estudio global realizado por Jumio en 2023, el 67% de las personas tienden a sobreestimar su capacidad para detectar deepfakes o contenido multimedia manipulado con IA. Esto sucede, en gran medida, porque ignoran la creciente sofisticación de herramientas y técnicas para crear vídeos, fotos y audios hiperrealistas de personas haciendo cosas que nunca hicieron. Esto incrementa el riesgo de ciberataques mediante engaños y suplantaciones de identidad.

Un caso que ilustra el punto anterior se presenta en el Weekly Threat Intelligence Brief. Este resumen ejecutivo actualizado sobre las principales incidencias cibernéticas a nivel global menciona que se identificó un malware llamado GoldPickaxe, que roba datos biométricos y produce videos deepfake de las víctimas para burlar los sistemas de reconocimiento facial de los bancos.

Pero no te preocupes, la inteligencia artificial para detectar deepfakes también evoluciona y es cada vez más minuciosa. Actualmente, la misma IA te permite reconocer el contenido audiovisual y fotográfico generado con herramientas automatizadas, en tiempo real y con altos índices de precisión, lo que agrega una capa adicional a la ciberseguridad de tu empresa. 

¿Cómo ayuda la Inteligencia Artificial a detectar los deepfakes?   

El hiperrealismo de estas falsificaciones ha sido impulsado por el auge de las Redes Generativas Adversarias (GAN), una tecnología especialmente diseñada para automatizar la creación de datos sintéticos idénticos a los reales. 

Además, hubo un aumento significativo de softwares avanzados y fáciles de usar, lo cual se evidencia en los 95.820 videos deepfake identificados en la web en 2023, según estudio de Home Security Héroes.

Ante este escenario de volumen y perfeccionamiento de las falsificaciones, lo único que queda por hacer es aprovechar la inteligencia artificial para saber qué contenido ha sido manipulado por ella misma. Las soluciones al respecto son variadas, pero la mayoría se fundamentan en cuatro aspectos: 

1. Identificación de artefactos inusuales 

En este ámbito, los algoritmos de inteligencia artificial se dedican a analizar el contenido en búsqueda de señales contextuales de falsedad que, aunque parecen básicas, pueden pasar desapercibidas para ti. 

¿Cuáles podrían ser esos artefactos inusuales? Son muchos. Piensa en cosas como mala iluminación, distorsiones geométricas, bordes irregulares, variaciones inusuales en los colores, profundidad de campo inconsistente y deformidades mínimas en la boca.

2. Aplicación de Redes Neuronales Convolucionales (CNN)  

Las CNN se basan en las llamadas “convoluciones”, que en líneas generales son operaciones matemáticas que fundamentan el procesamiento de la visión por computadora. Al margen de lo complejo que pueda parecer, lo importante es que permiten filtrar las imágenes y analizar cada píxel al detalle. 

De esta manera, la herramienta de IA es capaz de detectar deepfakes yendo más allá de los artefactos inusuales y reconociendo patrones que los algoritmos generativos no pueden imitar de ninguna manera. Por ejemplo, la tasa de parpadeo y hasta los flujos de sangre en los rostros, que se manifiesta con ligeros cambios en la tesitura y tono de piel. 

3. Redes generativas adversarias (GAN) 

Algún párrafo atrás te dijimos que el auge de las GAN era uno de los principales propulsores del contenido fake hiperrealista. Entonces, ¿cómo ayudan a combatirlos? Es sencillo: se utilizan para entrenar los modelos de detección de deepfakes. 

O sea, estos aprenden las técnicas y o variedades de engaño digital utilizadas por GAN. Si el entrenamiento es fuerte y constante, siempre tendrá mayor capacidad para distinguir entre lo real y lo falso.

4. Análisis de audio y sincronización labial  

Los modelos para reconocer contenido engañoso no se limitan al análisis de imágenes. También atacan todo lo relacionado con el audio. La idea es identificar anomalías. Por ejemplo: 

  • Inconsistencias en el tono de la voz. 
  • Ausencia de ruido ambiental. 
  • Falta de sincronización entre lo que se dice y los labios o la posición corporal. 
  • Respiración inusual.

Identifica deepfakes y protege la ciberseguridad de tu empresa

Al implementar este tipo de herramientas en tu empresa, les brindas a tus colaboradores la capacidad de identificar contenido engañoso. Así los delincuentes la tendrán más difícil a la hora de desplegar ciberataques basados en deepfakes. 

Por supuesto, más allá de la ciberseguridadtambién los protege de la desinformación y delitos basados en vídeos falsos, como la extorsión y el fraude. 

IAB News Recomienda

Te presentamos las últimas noticias del marketing digital nacional, de nuestros socios y de la industria mundial.