InicioComunicaciónComPolElecciones, deepfakes y empresas tecnológicas

Elecciones, deepfakes y empresas tecnológicas

En los últimos meses, al menos dos candidatos presidenciales han sido víctimas de deepfakes (técnica de inteligencia artificial usada para crear o manipular vídeos o audios con el fin de suplantar la identidad de una persona).

El primero fue el eslovaco Michal Šimečka, cuya voz se manipuló para una supuesta conversación, publicada en Facebook, en la que se hablaba de subir el precio de la cerveza y amañar las elecciones. El segundo fue el presidente-candidato Joe Biden, que en una robocall falsa pedía a los ciudadanos de New Hampshire que no fueran a votar en las primarias demócratas de enero.

Estados Unidos reaccionó rápido. La Comisión Federal de Comunicaciones prohibió las llamadas automatizadas. La medida busca evitar que el uso de simuladores de voz se propague en la campaña, aunque se queda corta. Mientras previene un caso como el de Biden, todavía puede ocurrir otro como el del candidato eslovaco en redes sociales. La amenaza continúa.

Y, más recientemente, el Tribunal Superior Electoral de Brasil describió reglas para el uso de inteligencia artificial (IA) durante las campañas políticas. En términos generales, se permitirán los anuncios políticos fabricados con herramientas de IA siempre que se incluyan las exenciones de responsabilidad adecuadas, mientras que los deepfakes quedan terminantemente prohibidos.

Tras la explosión de la IA generativa, su uso en la política está cada vez más extendido. Pero, pese a algunos primeros esfuerzos, ningún país del mundo ha sido capaz de poner en vigor una ley que regule su aplicación de manera amplia. Eso significa que, en el año con más elecciones de la historia, dependemos en buena medida de los controles que se autoimpongan las empresas tecnológicas y la propia esfera política. Lamentablemente la regulación democrática va lenta, llega tarde y parece insuficiente.

Hace unas semanas, en la Conferencia de Seguridad de Múnich, algunas de las compañías más importantes del sector, entre ellas Meta, Microsoft, OpenAI, Google y Tiktok, se adhirieron a un acuerdo para adoptar voluntariamente «precauciones razonables» para evitar que se utilicen herramientas de IA para distorsionar los procesos electorales.

Según filósofos y académicos de la talla de Yuval Noah Harari, el peligro va más allá de lo electoral. Advierten que la propia democracia está en riesgo, si la conversación social pasa a ser hackeada por la IA.

La medida unitaria de las tecnológicas se suma a iniciativas particulares que surgieron en los últimos meses. Por ejemplo, Meta ha anunciado que etiquetará los contenidos publicados en sus plataformas que usen IA generativa y formará un equipo para combatir la información falsa que pueda perjudicar las elecciones europeas de junio.

Por su parte, OpenAI ha desarrollado una serie de reglas para el uso político de ChatGPT y Dall-E; y, finalmente, Google ha suspendido temporalmente el uso de Gemini para producir imágenes de personas, después de que muchos usuarios denunciaran errores importantes relacionados con la raza y la diversidad.

Pero estos anuncios de las tecnológicas quedan abiertos a interpretaciones. En este sentido, el acuerdo de Múnich no implica el compromiso de prohibir o retirar cualquier contenido falso creado con IA. Las empresas se limitan a indicar que compartirán conocimientos sobre el tema con la idea de que se identifiquen y etiqueten este tipo de publicaciones y se sepa responder cuando se viralizan. Las respuestas finales seguirán dependiendo del juicio de cada compañía.

A esto se suma que, en Estados Unidos, la Corte Suprema tiene que decidir si son constitucionales o no dos leyes sobre regulación de contenidos y libertad de expresión, aprobadas por el Partido Republicano en Florida y Texas, porque consideraban que las redes sociales se estaban extralimitando al censurar publicaciones vinculadas a la extrema derecha. Si la Corte (con una mayoría conservadora) llegara a dar luz verde a estas regulaciones, la capacidad de las tecnológicas para controlar contenidos en Estados Unidos quedaría limitada.

Esta compleja realidad obliga a la ciudadanía a aumentar la cautela verificando los contenidos antes de tomarlos en serio y compartirlos. La tarea, sin embargo, no es sencilla. Según un estudio de Plos One, las personas tienen dificultades para reconocer 1 de cada 4 deepfakes de voz. Con las imágenes pasa algo similar. Por ello, Google desarrolló un juego en el que se reta al usuario a señalar entre cuatro opciones cuál es la creada con IA.

Los partidos deben considerar este escenario en sus estrategias para diseñar acciones y métodos específicos para el control de daños y la denuncia de fakes. Biden, por ejemplo, ya ha activado una cuenta de Instagram. Y, en 2022, Lula creó un equipo de campaña especializado en detectar y denunciar contenidos y noticias falsas, para lo que creó un apartado especial en su web. Pero en sociedades polarizadas, estas publicaciones se diseminan rápido y la confianza en los actores políticos es mucho más frágil. Las campañas deben involucrar a los ciudadanos y a organizaciones independientes en estos esfuerzos.

Ante la falta de regulaciones efectivas y los insuficientes esfuerzos de las empresas tecnológicas, las campañas se han convertido en competencias por la verdad. Pasamos de quién tiene la razón a quién dice la verdad.

Publicado en: Clarín (10.03.2024)
Ilustración: ©Mariano Vior para Clarín

Enlaces de interés:
La inteligencia artificial y sus desafíos para la política (Clarín, 21.01.2024)
VerificAudio. El Desafío de la Veracidad en Audio. La solución de Prisa Media para garantizar la autenticidad de cada audio.
Warning: Humans cannot reliably detect speech deepfakes (Plos One, 2.08.2023)

Otros contenidos

5ª edición del Premio Cátedra Ideograma – UPF

El jurado del Premio Cátedra Ideograma–UPF, en su quinta edición, ha escogido como ganador el Trabajo de Fin de Máster (TFM) presentado por Óscar Gallego...

¿Cómo ha cambiado la forma de hacer las campañas electorales?

En todo el mundo, la comunicación política ha experimentado una transformación profunda y acelerada en las últimas décadas. La creciente personalización, así como los...

Tras 6 años de actividad, renovamos nuestra Cátedra Ideograma-UPF de Comunicación Política y Democracia

En 2018 firmamos el Convenio entre Ideograma y UPF para impulsar la Cátedra Ideograma-UPF de Comunicación Política y Democracia. Han pasado 6 años y...

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.