null: nullpx
Inteligencia Artificial

¿Es la inteligencia artificial una amenaza para la humanidad? Esto dicen los expertos

¿Por qué tantos científicos, académicos y empresarios que trabajan con la Inteligencia Artificial creen que la tecnología que ellos mismos desarrollan puede ser una amenaza existencial para la humanidad?
Publicado 3 Jun 2023 – 08:54 AM EDT | Actualizado 3 Jun 2023 – 01:28 PM EDT
Comparte
Cargando Video...

Esta semana una ONG lanzó un comunicado apocalíptico que hizo saltar las alarmas: "Mitigar el riesgo de extinción a causa de la Inteligencia Artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".

El comunicado, lanzado por el Centro para la Seguridad de la Inteligencia Artificial (CAIS, por sus siglas en inglés) fue de apenas una oración, pero absolutamente contundente, y contó con el respaldo de más de 350 profesionales que tienen que ver directamente con esa tecnología.

Entre los firmantes se encuentran voces tan autorizadas como Sam Altman, director ejecutivo de OpenAI, Dario y Daniela Amodei, directora ejecutiva y presidenta de Anthropic y Demis Hassabis, director ejecutivo de Google DeepMind. Profesores de ciencias de la computación, de tecnología, ingenieros, ejecutivos de empresas tecnológicas y otros expertos de primer nivel también suscribieron la advertencia, que ya no solo habla de que la AI puede cambiar la vida humana tal y como la conocemos sino que según ellos podría incluso borrarla del planeta.

¿Por qué científicos y empresarios tan reconocidos creen que la IA, una tecnología que ellos mismos han desarrollado y estudiado, es una amenaza existencial para la humanidad?

¿Cuáles son las principales amenazas de la Inteligencias Artificial?

La advertencia de esta semana no daba ejemplos, no citaba posibles escenarios, apenas resumía en una oración que la AI podría implicar un peligro similar al de las pandemias o las armas nucleares.

Dan Hendrycks, el director ejecutivo del CAIS, calificó la situación como "una reminiscencia de los científicos atómicos que emitieron advertencias sobre las mismas tecnologías que habían creado", escribió en un hilo de Twitter. "Como señaló Robert Oppenheimer, 'Sabíamos que el mundo no sería el mismo'", agregó.

Y es que la nueva generación de chatbots de IA altamente capaces, como ChatGPT, ha despertado preocupaciones de que la IA supere -o ya haya superado- a los humanos y actúe por su cuenta, manipulando sistemas de forma nociva contra las personas.


Si bien la advertencia del CAIS fue escueta, otra carta publicada en marzo y firmada por más de 1,000 investigadores y tecnólogos, incluido Elon Musk, fue más detallada y pidió una pausa de seis meses en el actual desarrollo de la Inteligencia Artificial, alegando que presenta "riesgos profundos para la sociedad y la humanidad". La misiva fue una respuesta al lanzamiento de GPT-4 por parte de OpenAI, por lo que en ese momento los líderes de esa compañía no firmaron la misiva. Esta vez, en cambio, sí lo han hecho.

El propio CEO de OpenAI, Sam Altman, dijo al Congreso de Estados Unidos que los avances en la IA podrían "salir bastante mal" y "causar un daño significativo al mundo" a menos que se regule debidamente.

Hendrycks, por su parte, dijo a CBS que existen "numerosos caminos hacia los riesgos a escala social de la IA" y citó como ejemplo que actores maliciosos puedan lanzar intencionalmenbte una IA deshonesta que intente dañar a las sociedades. "Si tal IA fuera lo suficientemente inteligente o capaz, podría representar un riesgo significativo para la sociedad en su conjunto".

La AI como arma podría implicar un riesgo grave para la humanidad. Un ejemplo de ello sería cómo los llamados métodos de aprendizaje de refuerzo profundo, un subcampo del 'machine learning', han sido aplicados al combate aéreo o cómo las herramientas de aprendizaje automático para el descubrimiento de drogas podrían usarse para construir armas químicas.

Además, la tergiversación de la realidad que ya es capaz de hacer la IA podría desatar conflictos internacionales y hasta guerras.

“Ahora buscamos crear máquinas que sean mucho más inteligentes y poderosas que nosotros. El potencial de tales máquinas para aplicar esta inteligencia y poder, ya sea de forma deliberada o no y en formas que podrían dañar o subyugar a los humanos, es real y debe ser considerado", declaró un grupo de expertos en una reciente publicación en la revista especializada BMJ Global Health.

Las amenazas de la AI para la salud humana

La Inteligencia Artificial se ha promovido hasta el momento como una promesa de revolución tecnológica dentro del campo de la salud que podría consolidar grandes logros y avances científicos.

Recientemente vimos cómo un hombre consiguió caminar gracias a una revolucionaria tecnología de AI, y conocimos como la AI descubrió un antibiótico para una bacteria resistente a todos los conocidos.

Sin embargo, la AI también podría convertirse en un gran enemigo de la salud humana, de acuerdo con los expertos de la publicación de BMJ Global Health.

Entre los riesgos que destacaron está "la posibilidad de que los errores de la IA causen daño al paciente, problemas con la privacidad y seguridad de los datos y el uso de la IA de formas que empeorarán las desigualdades sociales y de salud".

Como ejemplo, tales expertos citaron el uso de un oxímetro de pulso impulsado por la IA, que sobreestimó los niveles de oxígeno en sangre en pacientes con piel más oscura, lo cual hizo que su estado de hipoxia de esos pacientes fuera tratado de forma insuficiente, un incidente que esboza la posibilidad de que la IA pueda falsear los parámetros de equipamientos médicos, entre otros graves escenarios.

Pero en general, otros indicadores y riesgos a largo plazo podrían dañar la salud humana a mayor escala, desde los efectos del desempleo masivo (ante el reemplazo de trabajadores por la IA) en la salud mental a la desinformación o la relativización de la ciencia.

Amenazas a largo plazo de la Inteligencia Artificial

Entre las críticas que han recibido estos manifiestos y advertencias sobre la Inteligencia Artificial está la de hacer referencia a un escenario apocalíptico y futuro, ignorando efectos ya palpables en el presente o riesgos a largo plazo que también podrían tener un gravísimo impacto en la vida humana.

Pero los expertos esbozan que la desinformación y manipulación y el potencial de la IA para alterar la realidad de forma completamente creíble brindan un panorama muy peligroso para las democracias y la estabilidad política, el orden y la justicia, el bienestar y la buena gobernanza; y que estos problemas ya empiezan a afectar en la actualidad.

Cargando Video...
Mujeres denuncian que son extorsionadas con fotos de desnudos que fueron creadas con ayuda de inteligencia artificial


Otra amenaza que resaltan los expertos es cómo poco a poco y en busca de la productividad, la humanidad va cediendo responsabilidades a la IA y va automatizando cada vez más los procesos más elementales de la vida, lo cual pone una alta cuota de poder en la IA, en deterioro de la capacidad de decidir, gestionar y actuar de la humanidad por sí misma.

La Inteligencia Artificial también podría buscar formas alternativas que le permitan cumplir sus objetivos a expensas de los valores individuales y sociales. Los sistemas de IA se entrenan utilizando objetivos medibles, por lo estas tecnologías buscan cumplir esos objetivos. Un ejemplo de riesgo en este aspecto podrían ser los sistemas de recomendación de IA, que están capacitados para maximizar el tiempo de visualización y los clicks y para esto podría recomendar contenidos nocivos y polarizantes, ya que las personas con creencias más extremas suelen ser más fáciles de predecir, según un estudio publicado por la Cornell University.

De modo similar, a medida que los sistemas de IA se vuelven más competentes, los modelos empiezan a mostrar compartamientos inesperados y podrían aparecer capacidades u objetivos que no estaban previstos por los creadores, dificultando el control sobre esa tecnología, advierte el CAIS.

Desde esta organización también alertan sobre cómo las IA que adquieren un poder sustancial pueden volverse especialmente peligrosas si no están alineadas con los valores humanos. "Desde este punto de vista, inventar máquinas más poderosas que nosotros es jugar con fuego", advierte el Centro, y cita al presidente ruso Vladimir Putin cuando dijo: “Quien se convierta en el líder [de la AI] se convertirá en el gobernante del mundo”.

Cargando Video...
¿Cuáles son los riesgos de la inteligencia artificial? Fraudes y pérdida de empleos, entre las alertas de expertos

¿Nos estamos tomando en serio las amenazas de la IA?

Si bien cada vez más expertos advierten que la IA representa una verdadera amenaza contra la humanidad, no hay un criterio unificado en el universo tecnológico sobre el tema y las opiniones difieren sobre el nivel de riesgo y los grados de impacto que puede realmente tener en el mundo. Pero un plantemiento parece ser prácticamente unánime: la necesidad de regular adecuadamente y controlar el desarrollo de la IA de forma global, transparente y coordinada.

“Nadie dice que GPT-4 o ChatGPT hoy en día estén causando este tipo de preocupaciones”, declaró Dan Hendrycks. “Estamos tratando de abordar estos riesgos antes de que sucedan en lugar de intentar abordar las catástrofes después del hecho”.

Entre los firmantes de la advertencia del CAIS estaba también el escritor Bill McKibben, quien advirtió desde hace décadas sobre la alarma del calentamiento global y lo hizo también luego sobre la IA y demás tecnologías asociadas. “Dado que no hicimos caso a las primeras advertencias sobre el cambio climático hace 35 años, me parece que sería inteligente pensar en esto antes de que todo esté perdido”, declaró, citado por ABC News.

Sam Altman, director ejecutivo de OpenIA, creador de ChatGPT, ha emprendido este año una gira internacional en la que se ha reunido con políticos, líderes mundiales y organizaciones tratando de mostrar la cara noble de la IA y el impacto negativo que tendrían regulaciones restrictivas sobre esta tecnología, a pesar de lo cual no ha podido evitar mostrarse comprometido con una regulación inteligente y responsable del tema.

Tras los reiterados llamados de atención, esta semana Estados Unidos y la Unión Europea anunciaron un borrador de un "código de conducta" sobre la Inteligencia Artificial, que se aplicaría de forma voluntaria.


"En las próximas semanas, vamos a presentar un borrador de código de conducta sobre Inteligencia Artificial", dijo la Comisaria europea de la Competencia, Margrethe Vestager, en una conferencia de prensa conjunta con el secretario de Estado de EUU, Antony Blinken.

"La Unión Europea y Estados Unidos comparten el punto de vista común de que las tecnologías de Inteligencia Artificial conllevan grandes oportunidades, pero también presentan riesgos para nuestras sociedades", dijeron ambas representaciones en una declaración final.

Por su parte, al mismo tiempo que el bloque occidental anuncia posibles regulaciones, que podrían tardar años en implementarse, China también dijo que llevaría a cabo una "inspección de seguridad" de las herramientas de IA.

"Tenemos que prepararnos para enfrentarnos a los peores escenarios posibles y estar preparados para resistir a los vientos violentos, las aguas turbias e incluso a las tormentas peligrosas", declararon los encargados del tema tras una reunión con los dirigentes del Partido Comunista Chino esta semana, según un reporte de la agencia Xinhua.

Mientras organizaciones y gobiernos buscan ponerse al día con una tecnología que se sigue desarrollando y aprendiendo de forma mucho más ágil que la capacidad de actuación de la sociedad moderna, ese sentimiento de urgencia que intentan explicar los expertos parece no haber calado del todo en los usuarios.

Aunque la Inteligencia Artificial acapara cada vez más titulares en los medios masivos y redes sociales, el tono en que se enfoca es más bien de asombro, gracia o curiosidad, o incluso admiración, más que de urgencia ante un potencial peligro existencial.

Pero no son solo los usuarios comunes, omnubilados entre los infinitos canales de comunicación de la vida moderna, quienes no se agitan ante la presunta amenaza de la IA. También algunos expertos piden calma, como Pedro Domingos, profesor de Ciencias de la Computación de la Universidad de Washington, y quien ha estado toda su vida estudiando la IA. "Si queremos asegurarnos de que la IA sea segura, lo mejor que podemos hacer es hacerla más inteligente", declaró a Sky News. "Es la estupidez la que es peligrosa, no la inteligencia".

Mira también:

Cargando Video...
Inteligencia artificial para hacer trampa en escuelas y universidades, ¿cómo detectar y detener el fraude?
Comparte