null: nullpx
The Conversation

Cómo la inteligencia artificial amenaza la integridad de las elecciones de noviembre

En un ecosistema mediático lleno de dudas y desinformación, señales codificadas -como las llamadas automáticas falsas- hacen prácticamente imposible distinguir los hechos reales de la construcción de escenarios irreales llenos de mentiras.
Publicado 17 Feb 2024 – 01:18 PM EST | Actualizado 17 Feb 2024 – 01:18 PM EST
Comparte
Cargando Video...

El 8 de febrero de 2024, la Comisión Federal de Comunicaciones (FCC por su sigla en inglés) emitió un dictamen prohibiendo el uso de llamadas automáticas que utilizan voces generadas por inteligencia artificial. La decisión de la FCC está basada en la ley de protección al consumidor telefónico de 1991 que prohíbe las voces artificiales en las llamadas automáticas. Según la FCC las voces generadas por IA, incluyendo voces clonadas de personas reales, son artificiales y, por lo tanto, están prohibidas por ley.

La medida es consecuencia de una llamada automática hecha el pasado 21 de enero por quien parecía ser el presidente Joe Biden. En la llamada se escucha la voz del mandatario demócrata instando a votantes que lo siguen a él o a su partido a no participar en las elecciones primarias republicanas del 23 de enero en New Hampshire.

La llamada implicaba falsamente que un demócrata registrado podía votar en las primarias republicanas y que un votante que ejerciera su derecho en las primarias no sería elegible para votar en las elecciones generales de noviembre.

La llamada, dos días antes de las primarias, parece haber sido producida por inteligencia artificial. También luce ser un intento de desalentar la votación. La FCC y la oficina del fiscal general de New Hampshire están investigando la llamada. El 6 de febrero, el fiscal general de New Hampshire, John Formella, identificó dos empresas de Texas, Life Corp. y Lingo Telecom, como la fuente y el transmisor, respectivamente, de la llamada.

Inyectando confusión

Las llamadas automáticas en las elecciones no son nada nuevo ni ilegal y muchas de ellas son simplemente esfuerzos para conseguir el voto. Pero también se han utilizado en campañas de supresión de votantes. Para agravar este problema, en este caso está la aplicación de IA para clonar la voz de Biden.

En un ecosistema mediático lleno de ruido, las señales codificadas, como las llamadas automáticas falsas, hacen prácticamente imposible distinguir los hechos de las falsificaciones.

Recientemente, han aparecido en línea varias empresas que ofrecen suplantación de identidad como servicio. Para usuarios como tú y como yo, es tan fácil como seleccionar un político, celebridad o empresario como Joe Biden, Donald Trump o Elon Musk de un menú y escribir un guión de lo que quieres que digan y el sitio web crea la falsificación automáticamente.

Aunque el resultado, tanto en audio como en video suele ser entrecortado y forzado, cuando el audio se entrega, a través de una llamada automática, es muy creíble. Fácilmente podría pensar que está escuchando una grabación de Joe Biden, cuando en realidad es información errónea creada por una máquina.

El contexto es clave

Soy un estudioso de los medios y la desinformación. En 2019, el científico de la información Brit Paris y yo estudiamos cómo las redes generativas de confrontación (lo que la mayoría de la gente hoy considera IA) transformarían la forma en que las instituciones evalúan la evidencia y toman decisiones al juzgar la manipulación de audio y video de apariencia realista.

Lo que descubrimos fue que ningún medio de comunicación es confiable a primera vista; más bien, el contexto importa para hacer una interpretación.

Cuando se trata de desinformación mejorada por IA, la credibilidad de las falsificaciones depende de dónde se ven, se escuchan o quién las comparte. Sin una fuente válida y confirmada que lo avale como un hecho, una falsificación puede ser interesante y hasta divertida, pero nunca será tomada como prueba en un tribunal. Aún así, las falsificaciones aún pueden ser perjudiciales cuando se utilizan en esfuerzos para suprimir el voto o moldear la opinión pública sobre temas polémicos.

Las campañas de desinformación mejoradas por IA son difíciles de contrarrestar porque desenmascarar la fuente requiere seguir el rastro dejado por los metadatos, o datos sobre los medios que la han compartido.

La forma de hacerlo varía según el método de distribución: llamadas automáticas, redes sociales, correo electrónico, mensajes de texto o sitios web. En este momento, la investigación sobre la manipulación de audio y video es más difícil porque muchas grandes empresas tecnológicas han cerrado el acceso a sus interfaces de programación de aplicaciones, que hacían posible que los investigadores recopilaran datos para el rastreo, y han despedido a sus equipos encargados de garantizar la confianza y seguridad de las plataformas.

Conocimiento local oportuno y preciso

En muchos sentidos, la desinformación mejorada por IA, como la llamada automática de New Hampshire, plantea los mismos problemas que cualquier otra forma de desinformación. Es probable que las personas que utilizan la IA para perturbar las elecciones hagan todo lo posible para ocultar sus huellas, por lo que es necesario que el público se mantenga escéptico ante información que no provenga de fuentes verificadas, como las noticias de estaciones locales o las cuentas de las redes sociales de organizaciones de noticias acreditadas.

También es importante que el público comprenda de qué es capaz la nueva tecnología de manipulación visual y de audio. Ahora que la tecnología está ampliamente disponible, y con un año electoral crucial por delante, la llamada automática falsa de Biden es solo la más reciente de lo que probablemente será una serie de campañas de desinformación optimizada por IA, a pesar de que estas llamadas ahora son explícitamente ilegales.

Creo que la sociedad necesita aprender a respetar la información local, oportuna y precisa y que es importante diseñar sistemas de redes sociales que las valoren por encima de la disrupción y la división.

También es importante hacer más difícil que los desinformadores se beneficien, socavando la democracia. Por ejemplo, las autoridades policiales federales y estatales deberían investigar enérgicamente el uso malicioso de la tecnología para suprimir la participación electoral.

Si bien las falsificaciones pueden sorprender a la gente, no deberían tomarnos desprevenidos, por más lenta que sea la verdad en comparación con la velocidad de la desinformación.

*Joan Donovan es profesora asistente de periodismo y estudios de medios emergentes de la Universidad de Boston.

Este artículo fue publicado originalmente en The Conversation. Lea el artículo original aquí.

Cargando Video...
¿La inteligencia artificial puede afectar la seguridad en las próximas elecciones? Expertos lo analizan


The Conversation 1px !important; min-height: 1px !important; min-width: 1px !important; opacity: 0 !important; outline: none !important; padding: 0 !important; text-shadow: none !important" width="1" height="1


Comparte