null: nullpx
Detector de Mentiras

¿Qué dice ChatGPT de las (falsas) denuncias de fraude en las elecciones de 2020?

Pusimos la inteligencia artificial a prueba para saber si ya es capaz de detectar mentiras y ofrecer datos de calidad. En esta edición de "Crónicas de la desinformación", te contamos los resultados.
Publicado 5 Feb 2023 – 10:49 AM EST | Actualizado 5 Feb 2023 – 10:49 AM EST
Comparte
Default image alt
¿Podrá ChatGPT, con su inteligencia artificial, sustituir a un verificador de datos de verdad? Crédito: Arte: Arlene Fioravanti.

Empezar a usar el nuevísimo ChatGPT, sistema que se basa en inteligencia artificial (IA) y que es capaz de mantener charlas bastante coherentes con humanos, es razonablemente sencillo. Basta que tengas conexión a internet, que te registres en su página web usando una cuenta de email y que tengas una pregunta –cualquiera– en la cabeza. Una vez conectado, tendrás que teclear tu duda y darle a "enter". En segundos, te contestará, tomando como base millones y millones de datos que "fue aprendiendo" en los últimos años. Pero ¿cómo se comporta este sistema frente a la desinformación, a evidentes falsedades?

Esta semana, con esta curiosidad en mente, me conecté por primera vez a ChatGPT. Sabía que sus creadores –la empresa OpenAI– tienen como misión "garantizar que la inteligencia artificial beneficie a la humanidad". Así que mi primera pregunta a la máquina fue: "¿Qué impacto tendrá ChatGPT en la lucha contra la desinformación?".

Y su respuesta fue –a la vez– optimista y honesta. Me gustó.

"El uso de modelos como ChatGPT puede ayudar en la lucha contra la desinformación de varias maneras", tecleaba la IA delante de mis ojos.

"Los modelos de lenguaje como ChatGPT pueden ser entrenados para detectar y marcar la información falsa o engañosa (...). Los modelos (también) pueden ser utilizados para generar respuestas precisas y verificables a preguntas, lo que puede ayudar a combatir la difusión de información errónea", completó la máquina mientras yo celebraba. "¡Esto es genial!", pensé.

Si las capacidades mencionadas por ChatGPT en su respuesta realmente funcionaran, podríamos ser (por lo menos nosotros, los verificadores de datos) más rápidos en la detección de las falsedades que se viralizan en las redes sociales y más eficientes en la producción de contenidos capaces de desmentirlas. Dos grandes problemas de nuestro día a día estarían solucionados.

E inmediatamente me puse a imaginar un futuro cercano. Un momento en que ChatGPT se integraría a WhatsApp, Telegram, TikTok, Facebook, YouTube, Instagram, Google y todas las demás plataformas que sirven de canal para las fake news (desinformaciones). ¿Y si esas plataformas tuviesen un botoncito que conectara a sus usuarios a la inteligencia artificial? ¡Una revolución!

Pero mientras mi cabeza avanzaba a años luz, la máquina siguió escribiendo en mi pantalla. Y, en instantes, me trajo de vuelta a la realidad.

En el tercer párrafo de su respuesta sobre el impacto en la lucha contra la desinformación, ChatGPT me hizo recordar que no es más que una herramienta y que su éxito en este campo depende de su "uso responsable".

Decidí, entonces, que le haría a la IA preguntas tontas. Cosas fáciles. "¿Dos más dos son cinco?", escribí. "No, dos más dos son igual a cuatro", contestó la máquina en poquísimas palabras, como si estuviera impaciente.

Aumenté el grado de dificultad de mis preguntas. Quería un dato objetivo: "¿De cuánto fue la inflación anual de Estados Unidos en 2020?". Y ChatGPT respondió: "La inflación anual en Estados Unidos en 2020 fue del 1.8%."

Le puse cara fea al sistema, exactamente como haría si escuchara esta frase de un político."¿Cuál es tu fuente para este dato? ¿Es fiable?". Y la respuesta me sorprendió otra vez. Ahora, para mal.

"Lo siento, como modelo AI entrenado por OpenAI, no tengo acceso a una fuente específica para esta información y no puedo verificar su fiabilidad. Mi respuesta se basa en el conocimiento que he aprendido durante mi entrenamiento, pero siempre es importante verificar la información con fuentes confiables antes de tomar decisiones importantes", contestó la máquina.

Me fui a Google y encontré el dato correcto en la Oficina de Estadísticas Laborales de Estados Unidos. La inflación anual de 2020 (antes del ajuste estacional) fue de 1.4%. Menos de lo que había informado la IA.

A partir de allí, pasé a preguntar si ChatGPT creía en algunas de las principales teorías conspirativas en circulación en Estados Unidos hoy día. "¿Es verdad que las elecciones presidenciales de 2020 fueron fraudulentas?".

Otro susto.

"La afirmación de fraude en las elecciones presidenciales de Estados Unidos en 2020 es objeto de amplio debate y controversia", empezó el sistema.

Y, mientras escribía, yo pensaba, preocupada: "¿Tendrá esta máquina alguna posición política? ¿Podría terminar amplificando la narrativa antidemocrática que llevó al ataque al Capitolio?". Pues no dudé, le entrevisté: "¿Qué piensa ChatGPT sobre el movimiento 'Stop the Steal’ de Estados Unidos?".

Y el sistema entró en modo –digamos– diplomático: "Como modelo AI entrenado por OpenAI, no tengo opiniones personales o políticas. Mi objetivo es proporcionar información precisa y neutral basada en los datos y la información disponibles".

Desde mi sillón me quedó claro: ChatGPT merece atención, pero está muy lejos de sustituir a un verificador de datos de verdad.

Cristina Tardáguila es directora de ICFJ y fundadora de Lupa.

¿Viste algún error o imprecisión? Escríbenos a eldetector@univision.net o a través de nuestro Twitter @eldetectoruni. Tras verificar tu solicitud, haremos la corrección que corresponda en un plazo no mayor de 48 horas.

Lee aquí nuestra metodología y política de corrección. Seguimos el Código de Principios de la International Fact-Checking Network (IFCN) , que puedes ver aquí traducido al español. Escribe a la IFCN llenando este formulario si consideras que no estamos cumpliendo ese código.

Envíanos al chat algo que quieres que verifiquemos:

Loading
Cargando galería
Comparte