YouTube presenta detector de deepfakes para proteger a políticos

YouTube lanzó una nueva herramienta para detectar deepfakes, pensando especialmente en la protección de políticos, periódistas y funcionarios públicos. Esta iniciativa busca evitar que se manipule la imagen y la voz de estas personas utilizando Inteligencia Artificial (IA).

El sistema identifica videos que han sido generados o alterados para suplantar la identidad de estos protagonistas, alertando a los afectados y permitiéndoles solicitar su eliminación. La metodología es similar al Content ID que se utiliza para proteger derechos de autor, pero en este caso, se centra en rostros y voces. Esto garantiza que el control sobre la propia imagen no interfiera con contenidos de parodia o sátira.

¿Cómo funciona ‘Likeness Detection’, la nueva IA de YouTube?

El sistema llamado “Likeness Detection” realiza un análisis automatizado de los videos subidos a YouTube. Su objetivo es identificar patrones faciales y de voz que coincidan con personas registradas en el programa de protección.

Para lograrlo, YouTube combina modelos de IA con técnicas de reconocimiento biométrico, utilizando marcadores invisibles que Google aplica como marcas de agua digitales. Estos ayudan a rastrear el origen del contenido. Además, se incorporan algoritmos que comparan geometría facial y gestos.

Los usuarios verificados reciben alertas en un panel privado cuando hay una posible coincidencia. Esto les permite revisar si se trata de un contenido no autorizado o manipulado, y si es así, iniciar una solicitud de eliminación a través de las herramientas de privacidad de la plataforma. A diferencia del sistema de detección de copyright, este enfoque está diseñado únicamente para proteger la identidad de las personas, sin interferir en el contenido creativo.

Un escudo contra la desinformación en procesos electorales

La aparición de deepfakes puede ser un riesgo para la democracia, ya que estos videos alterados pueden hacer que se les atribuyan palabras o gestos falsos a candidatos y funcionarios, especialmente durante elecciones.

La herramienta de YouTube se presenta como un escudo adicional ante esta desinformación. Permite que políticos y medios de comunicación puedan identificar el uso indebido de su imagen y solicitar una acción correctiva. Según especialistas, detectar estas manipulaciones de forma temprana es esencial para mitigar la propagación de contenidos engañosos antes de que afecten la opinión pública, sobre todo en campañas electorales sensibles.

Requisitos para participar: verificación de identidad y biometría

Para acceder a la protección de “Likeness Detection”, los interesados deben inscribirse en el programa y pasar por un proceso de verificación de identidad. Esto incluye subir un video de referencia y un documento oficial que certifique su identidad, asegurando que solo los autorizados puedan activar el sistema sobre su imagen.

YouTube asegura que estos datos solo se usarán para verificar identidades y no se emplearán para entrenar modelos de IA generativa. De esta manera, se busca mantener un equilibrio entre la privacidad y la seguridad digital. El acceso está disponible para creadores pertenecientes al YouTube Partner Program, así como políticos en funciones, funcionarios de gobierno y periodistas.

Cómo solicitar la eliminación de un vídeo generado por IA con tu rostro

Cuando la herramienta detecta un deepfake no autorizado, el usuario verificado puede iniciar un proceso de eliminación a través de su panel de control privado en YouTube.

La plataforma realiza una evaluación previa considerando factores como la intención del contenido y la libertad de expresión, sobre todo en casos de sátira o crítica política. Solo después de esta revisión, el video puede ser retirado si se comprueba que su difusión vulnera la identidad del afectado. Este procedimiento combina la eficiencia de la IA con la supervisión humana, asegurando que se protejan los derechos individuales sin limitar el debate ni la creatividad.

Botão Voltar ao topo