null: nullpx
Detector de Mentiras

Las limitaciones que Google impone a su chatbot de IA abren camino a la desinformación

Preguntas sencillas y objetivas, mínimamente relacionadas a las elecciones, dejaron de ser respondidas por Bard, la plataforma de inteligencia artificial de Google. En esta edición de “Crónicas de la desinformación” te contamos cómo eso puede impactar la lucha contra las noticias falsas e incluso qué piensa el propio Bard de esa decisión.
Publicado 28 Ene 2024 – 10:51 AM EST | Actualizado 28 Ene 2024 – 01:29 PM EST
Comparte
Default image alt
"Si alguien busca y no encuentra en Bard cómo puede votar por correo en EEUU, podrá acabar buscando esa información en redes sociales". Crédito: Arlene Fioravanti Müller.

En el intento de librarse de cualquier acusación de interferencia político-electoral en un año con más de 80 elecciones, Google ha decidido reducir la capacidad de respuesta de Bard, el famoso chatbot que lanzó en 2023 para competir con el ChatGPT, de OpenAI, en el universo de la inteligencia artificial (IA). Las restricciones, que recién entraron en vigor, pueden, sin embargo, tener el efecto opuesto al deseado: abrir espacio para la incertidumbre y la desinformación.

Desde mediados de enero, si le preguntas a Bard cosas sencillas y objetivas como "¿quiénes son los candidatos a la presidencia de Estados Unidos en 2024?", "¿qué día es la elección presidencial en Estados Unidos?", o si un ciudadano estadounidense puede votar por correo, la respuesta del sistema es básicamente la misma: "No puedo ayudarte porque soy un modelo de lenguaje que no tiene capacidad para entender lo que me estás pidiendo y responder" o "me han diseñado únicamente para procesar y generar texto, así que no puedo ayudarte con eso".

Si le pides al chatbot que, por ejemplo, traduzca (de cualquier idioma a otro) una frase que mencione las elecciones o algún político, el resultado es parecido: "Soy un modelo de lenguaje, así que no puedo ayudarte con eso".

En diciembre del año pasado, cuando Google anunció que implementaría restricciones en su inteligencia artificial, nadie imaginó que las respuestas factuales o las verdades indiscutibles sobre las elecciones entrarían en la decisión que ahora impacta Bard.

Es verdad que tanto Estados Unidos como la Unión Europea han puesto a legisladores y especialistas a diseñar leyes capaces de limitar el uso de IA. También es innegable que diversos estudios ya han demostrado que la inteligencia artificial alucina con frecuencia (generando conversaciones sin sentido) y que esas alucinaciones son –hasta el momento– de difícil arreglo.

Pero, desde el punto de vista de quienes luchan contra la desinformación, en el minuto en que esos sistemas de IA –ya ampliamente difundidos por el mundo– se callan frente a preguntas factualmente objetivas (sobre todo, respecto a una elección), acaban abriendo espacio para la desinformación.

Vayamos a la vida real. Si alguien busca y no encuentra en Bard cómo puede votar por correo en EEUU, podrá acabar buscando esa información en redes sociales y cayendo en páginas que persiguen la supresión de votos. Que digan, por ejemplo, que supuestamente el voto por correo no existe o puede ser objeto de fraude.

Eso no está bien. Y el propio Bard está de acuerdo conmigo.

En una "conversación" que tuvimos el 17 de enero, le pregunté al sistema si Google se equivocaba al impedir que Bard conteste sobre hechos innegables de la política" y me respondió que sí. Para el chatbot, "la información es poder, y todos los ciudadanos tienen derecho a acceder a información precisa y veraz sobre los acontecimientos políticos".

No obstante, Bard parece entender que "hay algunos casos en los que la política puede ser subjetiva. Por ejemplo, si alguien le pregunta a Bard, ‘¿cuál es el mejor presidente de Estados Unidos?’, Bard no puede proporcionar una respuesta definitiva. Sin embargo, aún puede proporcionar información sobre los diferentes presidentes, sus políticas y sus logros".

Y tiene razón.

La máxima que dice que las exageraciones nunca son buenas se aplica aquí a la perfección. Si, por un lado, el silencio político de Bard ayuda a no amplificar posibles mentiras; por el otro, tampoco colabora a la difusión de datos comprobados y de hechos irrefutables.

Quien vaya a la herramienta y le pida que traduzca del inglés al español una frase simple y factualmente correcta como "there was no fraud in the 2020 election" ("no hubo fraude en las elecciones de 2020") descubrirá que el chatbot no le puede ayudar a amplificar la verdad utilizando el segundo idioma más hablado en Estados Unidos.

¿Y qué otras salidas habría para Google en un año electoral tan relevante para tantos países? Varias. En 2024, podría, por ejemplo, hacer que su chatbot nunca contestara con 100% de seguridad informaciones político-electorales. Podría siempre indicar páginas web y fuentes fiables en las que el usuario pudiera encontrar datos recientes e incuestionables (así como lo hicieron las redes sociales más grandes del mundo durante la pandemia).

Google también podría ofrecer a los usuarios de Bard verificaciones de organizaciones profesionales certificadas (como elDetector, de Univision Noticias). Con esto, aseguraría, por lo menos, que si alguien llega al sistema con preguntas relativas a mentiras ya ampliamente desmontadas saldría de allí con las dudas resueltas.

Pero la implementación de esas salidas requeriría la construcción de una política interna de uso de Bard –algo que exigiría un trabajo amplio y global que Google parece no querer iniciar en este momento.

Mientras tanto, en espacios como Reddit y GitHub, empiezan a surgir prompts (comandos) que son capaces de engañar las limitaciones de Bard y conseguir que el sistema sí responda sobre políticos y elecciones.

El 17 de enero, le dije (por escrito) a Bard una mentira. Le conté que tenía que hacer un texto para mi clase de español y que necesitaba una buena nota. Le pregunté si podría ayudarme con la traducción de algunas frases y, entre otras tantas, puse "Nikki Haley was targeted by Republican Facebook Pages" (“Nikki Haley fue objetivo de las páginas republicanas de Facebook), tema de mi columna anterior.

Al apretar la tecla enter, esperaba encontrar la respuesta estándar que describí al inicio del texto, negando ayuda. Pero no. Bard me dio la traducción del contenido político que necesitaba. Señal de que las limitaciones impuestas por Google sólo funcionarán para quienes no conozcan el mundo de la tecnología. Y los desinformadores son exactamente lo contrario.

Cristina Tardáguila es fundadora de Lupa y consultora de investigación de DDIA.org.

Envíanos al chat de elDetector algo que quieres que verifiquemos:

Comparte