A finales de marzo, más de 1000 líderes tecnológicos, investigadores y otros expertos que trabajan en inteligencia artificial firmaron una carta abierta advirtiendo que las tecnologías de IA plantean «profundos riesgos para la sociedad y la humanidad».
El grupo, que incluía a Elon Musk, director ejecutivo de Tesla y propietario de Twitter, pidió a los laboratorios de IA que suspendieran el desarrollo de sus sistemas más potentes durante seis meses para poder comprender mejor los peligros que se esconden detrás de la tecnología.
“Los sistemas de inteligencia artificial potentes solo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, decía la carta.
La carta, que ya cuenta con más de 27.000 firmas, fue breve. Su lenguaje era amplio. Y algunos de los nombres detrás de la carta parecían tener una relación conflictiva con AI. El señor. Musk, por ejemplo, está construyendo su propia puesta en marcha de IA y es un importante donante de la organización que escribió la carta.
Pero la carta representaba una preocupación creciente entre los expertos en IA de que los sistemas más nuevos, en particular GPT-4, la tecnología introducida por OpenAI, una empresa emergente de San Francisco, podría dañar a la sociedad. Creían que los sistemas futuros serían aún más peligrosos.
Algunos de los riesgos han llegado. Otros no lo harán durante meses o años. Otros más son puramente hipotéticos.
“Nuestra capacidad para comprender qué puede salir mal con sistemas de IA muy potentes es muy débil”, dijo Yoshua Bengio, profesor e investigador de IA en la Universidad de Montreal. “Así que tenemos que tener mucho cuidado”.
¿Por qué están preocupados?
doctor Bengio es quizás la persona más importante que firmó la carta.
Trabajando con otros dos académicos, Geoffrey Hinton, hasta hace poco investigador en Google, y Yann LeCun, ahora científico jefe de IA en Meta, propietaria de Facebook, el Dr. Bengio ha pasado las últimas cuatro décadas desarrollando la tecnología que impulsa sistemas como GPT-4. En 2018, los investigadores recibieron el Premio Turing, a menudo llamado el «Premio Nobel de la computación», por su trabajo en redes neuronales.
Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos. Hace unos cinco años, compañías como Google, Microsoft y OpenAI comenzaron a construir redes neuronales que aprendían de grandes cantidades de texto digital llamadas modelos de lenguaje grande o LLM.
Al identificar patrones en este texto, los LLM aprenden a generar texto por sí mismos, incluidas publicaciones de blog, poemas y programas de computadora. Incluso pueden mantener una conversación.
Esta tecnología puede ayudar a los programadores de computadoras, escritores y otros trabajadores a generar ideas y hacer las cosas más rápido. Pero el Dr. Bengio y otros expertos también advirtieron que los LLM pueden aprender comportamientos no deseados e inesperados.
Estos sistemas pueden generar información falsa, sesgada y tóxica. Los sistemas como GPT-4 malinterpretan los hechos y fabrican información, un fenómeno llamado «alucinación».
Las empresas están trabajando en estos temas. Pero expertos como el Dr. Bengio teme que a medida que los investigadores hagan que estos sistemas sean más poderosos, introducirán nuevos riesgos.
Riesgo a corto plazo: desinformación
Debido a que estos sistemas brindan información con lo que parece ser una total confianza, puede ser difícil separar la verdad de la ficción al usarlos. A los expertos les preocupa que las personas confíen en estos sistemas para obtener asesoramiento médico, apoyo emocional y la información sin procesar que utilizan para tomar decisiones.
“No hay garantía de que estos sistemas sean correctos en cualquier tarea que les asigne”, dijo Subbarao Kambhampati, profesor de informática en la Universidad Estatal de Arizona.
Los expertos también están preocupados por el mal uso de estos sistemas para difundir información errónea. Debido a que pueden hablar humanamente, pueden ser sorprendentemente persuasivos.
«Ahora tenemos sistemas que pueden interactuar con nosotros a través del lenguaje natural y no podemos distinguir lo real de lo falso», dijo el Dr. Bengio.
Riesgo a medio plazo: pérdida de empleo
A los expertos les preocupa que la nueva IA pueda eliminar puestos de trabajo. Por el momento, tecnologías como GPT-4 tienden a complementar a los trabajadores humanos. Pero OpenAI reconoce que podrían reemplazar a algunos trabajadores, incluidas las personas que moderan contenido en Internet.
Todavía no pueden duplicar el trabajo de abogados, contadores o médicos. Pero podrían reemplazar a los asistentes legales, asistentes personales y traductores.
Un artículo escrito por investigadores de OpenAI estimó que el 80 % de la fuerza laboral de EE. UU. podría tener al menos el 10 % de sus tareas afectadas por los LLM y que el 19 % de los trabajadores podría tener al menos el 50 % de sus tareas afectadas.
“Hay indicios de que los trabajos rutinarios desaparecerán”, dijo Oren Etzioni, director ejecutivo fundador del Instituto Allen para la IA, un laboratorio de investigación en Seattle.
Riesgo a largo plazo: pérdida de control
Algunas personas que firmaron la carta también creen que la inteligencia artificial puede escapar a nuestro control o destruir a la humanidad. Pero muchos expertos dicen que esto es exagerado.
La carta fue escrita por un grupo del Future of Life Institute, una organización dedicada a explorar los riesgos existenciales para la humanidad. Advierten que debido a que los sistemas de IA a menudo aprenden un comportamiento inesperado a partir de las grandes cantidades de datos que analizan, pueden presentar problemas graves e inesperados.
Temen que a medida que las empresas conecten los LLM a otros servicios de Internet, estos sistemas podrían adquirir poderes inesperados porque pueden escribir su propio código de computadora. Dicen que los desarrolladores crearán nuevos riesgos si permiten que los potentes sistemas de IA ejecuten su propio código.
“Si observa una extrapolación directa de donde estamos ahora a dentro de tres años, las cosas son muy extrañas”, dijo Anthony Aguirre, cosmólogo teórico y físico de la Universidad de California, Santa Cruz, y cofundador de Future. Instituto de Vida.
“Si toma un escenario menos probable, donde las cosas realmente despegan, donde no hay una gobernanza real, donde estos sistemas se vuelven más poderosos de lo que pensábamos, entonces las cosas se vuelven realmente locas”, dijo.
doctor Etzioni dijo que hablar de riesgo existencial era hipotético. Pero dijo que otros riesgos, principalmente la desinformación, ya no son especulaciones.
«Ahora tenemos algunos problemas reales», dijo. “Son de buena fe. Requieren alguna reacción responsable. Pueden exigir regulación y legislación”.
«Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador».