La inteligencia artificial representa una amenaza tal para la sociedad y la humanidad que los laboratorios de IA deberían detener su trabajo en sistemas avanzados durante al menos seis meses. Así lo afirma una carta abierta firmada esta semana por luminarias tecnológicas, entre ellas el cofundador de Apple, Steve Wozniak, y el CEO de Tesla, Elon Musk.
Pero el director general de Google, durante mucho tiempo entre las empresas con la IA más avanzada, no se compromete con la idea.
Sundar Pichai abordó la carta abierta en una entrevista con el podcast Hard Fork publicado el viernes. Él cree que la idea de que las empresas tomen colectivamente tal acción es problemática.
“Creo que en los detalles reales de esto, no me queda completamente claro cómo harías algo así hoy”, dijo. Cuando se le preguntó por qué no podía simplemente enviar un correo electrónico a sus ingenieros para pausar su trabajo, respondió: “Pero si otros no están haciendo eso, ¿qué significa eso? Para mí, al menos, no hay forma de hacer esto de manera efectiva sin involucrar a los gobiernos. Así que creo que hay mucho más que pensar en eso”.
La carta abierta pide a todos los laboratorios de IA que no detengan el desarrollo en general, sino específicamente el entrenamiento de sistemas más potentes que GPT-4. OpenAI, respaldado por Microsoft, lanzó GPT-4 a principios de este mes como sucesor de ChatGPT, el chatbot de IA que cautivó al mundo después de su lanzamiento a fines de noviembre.
OpenAI mismo declaró el mes pasado: “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”.
Ese “algún punto” es ahora, argumenta la carta abierta publicada esta semana. Advierte sobre los riesgos que plantean los sistemas de IA con “inteligencia humana-competitiva” y pregunta:
“¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?
Tales decisiones no deberían recaer en líderes tecnológicos no elegidos, argumenta la carta, y los poderosos sistemas de inteligencia artificial “deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
Pichai reconoció a Hard Fork la posibilidad de un sistema de IA que “pueda causar desinformación a gran escala”. Y en un indicio del uso malicioso de IA que puede seguir, los estafadores telefónicos ahora están utilizando herramientas de IA de clonación de voz para hacer que las personas crean que sus familiares necesitan dinero con urgencia.
En cuanto a los trabajos que podrían automatizarse, un profesor de negocios de la Universidad de Pensilvania describió el fin de semana pasado que le dio a las herramientas de inteligencia artificial 30 minutos para trabajar en un proyecto comercial y calificó los resultados de “sobrehumanos”.
Cuando se le preguntó en el podcast si la IA podría conducir a la destrucción de la humanidad, Pichai respondió: “Hay un espectro de posibilidades, y lo que estás diciendo está en uno de los rangos de posibilidades”.
La carta abierta advierte sobre una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”. Durante la pausa, agrega, los laboratorios de IA y los expertos independientes deben “desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.
Si no pueden promulgar rápidamente una pausa de seis meses, argumenta, “los gobiernos deberían intervenir e instituir una moratoria”.
Pichai estuvo de acuerdo con la necesidad de una regulación, si no una moratoria. “La IA es un área demasiado importante para no regularla”, dijo. “También es un área demasiado importante para no regularla bien”.
Dijo sobre la carta abierta: “Creo que las personas detrás de ella pretendían iniciar una conversación, así que creo que el espíritu es bueno, pero creo que debemos tomarnos nuestro tiempo para pensar en estas cosas”.
Mientras tanto, Google, Microsoft, OpenAI y otros están a la cabeza.
Fortuna Se comunicó con Google y OpenAI para obtener comentarios, pero no recibió respuestas inmediatas. Microsoft se negó a comentar.