null: nullpx
Inteligencia Artificial

Expertos advierten sobre la "amenaza existencial" que representa la inteligencia artificial para la humanidad

La organización sin fines de lucro Centro para la Seguridad de la Inteligencia Artificial hizo la advertencia a través de un escueto pero contundente comunicado de una sola línea, publicado el martes, firmado por más de 350 ejecutivos, investigadores e ingenieros que trabajan en las empresas más destacadas en el campo de la inteligencia artificial.
Publicado 30 May 2023 – 10:45 AM EDT | Actualizado 30 May 2023 – 10:45 AM EDT
Comparte
Cargando Video...

Un grupo de líderes de la industria de la inteligencia artificial advirtió este martes que esa tecnología plantea una amenaza existencial para la humanidad similar a la que presentan escenarios cataclísmicos más obvios como las pandemias y las guerras nucleares.

La organización sin fines de lucro Centro para la Seguridad de la Inteligencia Artificial (CAIS por sus siglas en inglés) hizo la advertencia a través de un escueto pero contundente comunicado de una sola línea, publicado el martes.

Una advertencia corta pero contundente

El comunicado, firmado por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial dice: “ Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Entre los firmantes se encuentran altos ejecutivos de tres de las principales compañías de desarrollo de sistemas: Sam Altman, director ejecutivo de OpenA, Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic.

La declaración es la más reciente advertencia pública sobre el riesgo de seguridad que presenta la inteligencia artificial.

En una carta abierta publicada el 22 de marzo, algunas de las mismas personas que firmaron la declaración del martes recomendaban un "pausa" de seis meses en el desarrollo de sistemas de inteligencia artificial, advertía que los mismos presentaban un riesgo de pérdida de control sobre la humanidad, y venía acompañada de un papel de trabajo con recomendaciones sobre políticas para regular la industria.

Esa carta, que además cuenta con la firma de personajes como Elon Musk, el cofundador de Apple, Steve Wozniak, y el excandidato presidencial Andrew Yang, fue criticada por algunos expertos que creía que exageraba el riesgo que representa la inteligencia artificial, y por otros estuvieron de acuerdo con el riesgo pero no con los remedios sugeridos.

En declaraciones al The New York Times Dan Hendrycks, director ejecutivo del CAIS, explicó que a brevedad de la declaración del martes tenía la intención de evitar desacuerdos.

La ausencia de propuestas para mitigar la amenaza que representa la inteligencia artificial en la declaración del martes también tiene como objetivo resaltar la amenaza que la tecnología representa. “No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo Hendrycks. “Cuando eso sucede, diluye el mensaje”.

En qué consiste el riesgo

La declaración del martes tampoco explica las formas en que se manifestaría el daño existencial a la humanidad que dice que representa la inteligencia artificial.

Sin embargo, los rápidos avances en los modelos de lenguaje de inteligencia artificial como los usados por el popular robot conversacional ChatGPT, han generado temores de que la tecnología podría usarse para difundir propaganda e información falsa a gran escala.

Otros expertos creen que en poco años la inteligencia artificial podría volverse lo suficientemente poderosa como para crear trastornos a escala social en unos pocos años.

Recientemente un grupo de investigadores médicos descubrieron a través del uso de la inteligencia artificial un nuevo antibiótico que puede matar a una superbacteria hospitalaria mortal, calificada por la Organización Mundial de la Salud (OMS) como una amenaza "crítica" y se teme que pueda tener la misma eficiencia en el desarrollo de armas bioquímicas o bacteriológica y de destrucción masiva.

Hendrycks, explicó que uno de los aspectos más importantes de la carta es que representa la primera vez que importantes líderes de la industria reconocen públicamente las crecientes preocupaciones que habían expresado solo en privado, sobre los riesgos que representa la tecnología en la que trabajan.

“Hay un concepto erróneo muy común, incluso en la comunidad de la inteligencia artificial, de que solo hay un puñado de fatalistas”, dijo Hendrycks a The New York Times. “Pero, de hecho, muchas personas en privado expresan su preocupación por estas cosas”.

Aunque los escépticos argumentan que la tecnología es demasiado inmadura para representar una amenaza existencial otros han argumentado que la inteligencia artificial está mejorando tan rápidamente que ya ha superado el rendimiento a nivel humano en algunas áreas, y pronto lo superará en otras.

Cargando Video...
Inteligencia artificial para hacer trampa en escuelas y universidades, ¿cómo detectar y detener el fraude?
Comparte