Antes de que Sam Altman, presidente ejecutivo de OpenAI, pasara cuatro días apartado de la empresa, varios investigadores de la plantilla enviaron a la cúpula una carta en la que advertían de un potente descubrimiento de inteligencia artificial que, según ellos, podría amenazar a la humanidad. La carta y el algoritmo de inteligencia artificial, de los que hasta ahora no se había informado, constituyeron un avance clave previo a que el consejo de administración destituyera a Altman, el rostro de la inteligencia artificial generativa, según confirmaron a Reuters dos fuentes.
Antes de su regreso triunfal a última hora del martes, más de 700 empleados habían amenazado con renunciar en solidaridad y unirse a él en Microsoft. Las fuentes citaron la carta como uno de los factores de una larga lista de quejas del directorio que provocaron el despido de Altman. Según una de las fuentes, la veterana ejecutiva Mira Murati mencionó el proyecto, llamado Q*, a los empleados este pasado miércoles y dijo que se había enviado una carta al consejo antes de los acontecimientos del pasado fin de semana.
Tras la publicación de la noticia, una portavoz de OpenAI dijo que Murati había comunicado a los empleados lo que los medios iban a informar, pero no hizo comentarios sobre la exactitud de la información. El fabricante de ChatGPT había avanzado en Q* (pronunciado Q-Star), que algunos creen internamente que podría ser un gran avance en la búsqueda de la superinteligencia, también conocida como inteligencia artificial general (IAG), dijo una de las personas a Reuters. OpenAI define la IAG como sistemas de IA más inteligentes que los humanos.
El nuevo modelo, dotado de vastos recursos informáticos, fue capaz de resolver algunos problemas matemáticos, dijo la persona bajo condición de anonimato por no estar autorizada a hablar en nombre de la empresa. Si bien solo resuelve operaciones matemáticas para estudiantes de primaria, el hecho de superar estas pruebas hace que los investigadores sean muy optimistas sobre el futuro éxito de Q*, según la fuente.
Superinteligencia
Los investigadores consideran que las matemáticas son una frontera a cruzar en el desarrollo de la inteligencia artificial. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, y las respuestas a una misma pregunta pueden variar mucho. Lograr la capacidad de hacer cálculos matemáticos -donde solo hay una respuesta correcta- implica que la IA tendría una mayor capacidad de razonamiento, que se asemejaría a la inteligencia humana.
Esto podría aplicarse, por ejemplo, a nueva investigación científica, creen los investigadores de IA. A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender. En su carta a al directorio, los investigadores señalaron las proezas de la IA y sus posibles riegos, dijeron las fuentes, que no especificaron los problemas de seguridad exactos señalados en la carta.
Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas superinteligentes, por ejemplo, si pueden decidir que les interesa la destrucción de la humanidad. Con este telón de fondo, Altman dirigió los esfuerzos para hacer de ChatGPT una de las aplicaciones de software de más rápido crecimiento de la historia y atrajo la inversión -y los recursos informáticos- necesarios de Microsoft para acercarse a la superinteligencia, o IAG.
Además de anunciar una serie de nuevas herramientas en una demostración este mes, Altman insinuó la semana pasada en una reunión de líderes mundiales en San Francisco que creía que la IAG estaba al alcance. "Cuatro veces en la historia de OpenAI, la más reciente en las últimas dos semanas, he tenido la oportunidad de estar en la sala en la que corrimos el velo de la ignorancia y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida", dijo en la cumbre de Cooperación Económica Asia-Pacífico. Un día después, la junta despidió a Altman.