Kamala Harris interviene en la inauguración de la 60ª Conferencia de Seguridad de Munich el 16 de febrero de 2024. GETTY.

Las tecnológicas hacen frente a los ‘deep fakes’

Afrontar el riesgo de manipulación electoral impulsada por la tecnología es posiblemente más urgente que nunca en 2024, con la procesión de múltiples elecciones en el mundo y en las mayores democracias.
J. Scott Marcus
 |  1 de marzo de 2024

En un momento en el que existen más incentivos que nunca para utilizar las tecnologías emergentes para manipular las elecciones, podría surgir una “tormenta perfecta” de una situación geopolítica cada vez más tensa, el retorno de la guerra cinética, la pérdida de confianza pública en las soluciones multilaterales pacíficas y las mejoras asombrosamente rápidas de la inteligencia artificial (y especialmente la capacidad de crear imágenes, audio y vídeo falsos y convincentes “deep fakes”). Los riesgos y lo que está en juego son muy elevados.


Publicidad


Con este telón de fondo, en la Conferencia de Seguridad de Múnich celebrada el 16 de febrero, veinte empresas tecnológicas líderes firmaron un nuevo Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024. El Acuerdo pretende combatir el contenido electoral engañoso, que define como “audio, vídeo e imágenes convincentes generados por IA que falsifican o alteran de forma engañosa la apariencia, la voz o las acciones de candidatos políticos, funcionarios electorales y otras partes interesadas clave en unas elecciones democráticas, o que proporcionan información falsa a los votantes sobre cuándo, dónde y cómo pueden votar legalmente”.

Las veinte empresas son Adobe, Amazon, Anthropic, ARM, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta (la matriz de Facebook), Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, TruePic y X (antes Twitter), es decir, casi todas las empresas importantes por proporcionar herramientas que podrían utilizarse tanto para crear contenido engañoso como para difundirlas entre el público.

Las empresas se comprometieron a aplicar de forma voluntaria una serie de medidas, entre ellas evaluar los riesgos que suponen las tecnologías de IA para las elecciones, detectar contenidos falsos relacionados con las elecciones, mantener las conversaciones entre las partes implicadas y apoyar iniciativas de concienciación.

El Acuerdo ya ha sido criticado alegando que las empresas no harán lo suficiente como resultado de unos compromisos puramente voluntarios, que no existe ningún mecanismo de aplicación y que los compromisos son demasiado vagos e imprecisos.

Sin embargo, no es el momento de imponer obligaciones globales para combatir los contenidos electorales engañosos. Nadie está actualmente en condiciones de plantear una solución completa y exhaustiva al problema. Incluso si se dara con una solución perfecta, no habría tiempo para aplicarla antes de este año. Sin embargo, las empresas pueden tomar muchas medidas útiles. En lugar de un marco obligatorio, lo que se pide, en línea con lo que Otto von Bismarck dijo una vez de la política en general, es un acuerdo que refleje “el arte de lo posible”. El presidente de Microsoft, Brad Smith, lo ha descrito como un comienzo: “Aunque serán necesarios muchos más pasos”, dijo, el Acuerdo “marca el lanzamiento de una iniciativa genuinamente global para dar pasos prácticos inmediatos y generar un impulso mayor y más amplio”.

La realidad, además, es que algunas de las empresas firmantes están mucho más capacitadas que otras para dar pasos concretos. La mayoría ya dispone de recursos humanos invertidos en hacer frente a los contenidos falsos o engañosos, así como de bases sustanciales de herramientas e investigación. Estas empresas intensificarán lo que ya están haciendo: como las declaraciones sobre cómo se proponen aplicar el Acuerdo, incluido el uso de la norma C2PA para identificar la fuente del contenido de forma protegida con un hash criptográfico y una firma. El Acuerdo también representa un avance para que las empresas que, de otro modo, competirían entre sí, cooperen en la lucha contra los contenidos electorales engañosos.

Las compañías que no hayan invertido ya en recursos de personal e investigación para hacer frente a las falsificaciones profundas se verán en apuros para realizar muchas nuevas implementaciones técnicas en el limitado tiempo disponible. No obstante, como mínimo deberían ser capaces de adherirse a las partes del Acuerdo que exigen el intercambio de mejores prácticas, la transparencia sobre sus acciones y el compromiso con las partes interesadas y el público.

El Acuerdo es un buen comienzo, pero solo un comienzo. Una declaración de principios por sí sola no resolverá el problema de los “deep fakes” en las elecciones. Para mitigar los riesgos, es necesaria una gran cantidad de trabajo concertado y coordinado, por parte de un gran número de agentes, en un corto periodo de tiempo.

Artículo publicado originalmente en inglés en la web de Bruegel.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *