Un descubrimiento que "amenaza la existencia de la humanidad" sería la verdadera razón del despido del CEO de OpenAI

Se trataría de un avance de la inteligencia artificial jamás visto hasta nuestros días.

Imagen
Camilo Espinoza

😱 La historia detrás de la salida del CEO de OpenAI, Sam Altman, está tomando ribetes oscuros. El ejecutivo, que fue despedido y luego reintegrado en su cargo, sigue dando de qué hablar con nuevos y sorprendentes giros.


🤖 Según un reportaje de la agencia británica Reuters, la razón tras la decisión del directorio de apartar a Altman el pasado viernes fue una carta que recibieron de un grupo de investigadores de OpenAI, alertando sobre un avance en inteligencia artificial que “podría poner en riesgo la supervivencia de la humanidad”.


✍️ La agencia citó a dos fuentes anónimas con conocimiento del asunto. Aunque no pudieron acceder al contenido de la carta y los firmantes se negaron a declarar, la CEO interina y jefa de investigación de OpenAI, Mira Murati, confirmó a su equipo que la carta se refería a un proyecto de inteligencia artificial llamado Q* (pronunciado Q-Star), que fue el detonante de las acciones contra Altman.

¿Qué es Q*?


🧠 Q* sería un proyecto para desarrollar una superinteligencia, o inteligencia artificial general (AGI, por sus siglas en inglés), un tipo de IA que la empresa describe como “más inteligente que los humanos”.


Una AGI es “un tipo de IA que permite comprender, aprender y realizar tareas intelectuales de forma muy similar al cerebro humano. En otras palabras, es la capacidad de la IA de aprender del mismo modo que los humanos”, señala la revista Computer Hoy.


💰 Este tipo de inteligencia, que busca imitar incluso un nivel de conciencia, se consideraba como un proyecto muy lejano todavía. Sin embargo, una de las fuentes consultadas por Reuters indicó que los enormes recursos que recibió la empresa en el último año les permitieron avanzar rápidamente en el área, logrando ya una mente con la capacidad matemática de un niño en edad escolar.


👨‍🔬 Expertos en la materia son muy prudentes sobre el desarrollo de las AGI. El fallecido físico Stephen Hawking, dijo en 2014 que una entidad computacional de este tipo, “podría decidir rediseñarse a sí misma y así alcanzar un nivel superior”. “Los humanos, que son seres limitados por su lenta evolución biológica, no podrán competir con las máquinas y serán superados”, afirmó el científico a la BBC.


📌 Del mismo modo, Elon Musk, expresó a principios de este año que la IA debía regularse y tratarse con cuidado, ya que la llegada anticipada de una AGI “sería más peligrosa que una guerra nuclear”.


El enigmático mensaje de Altman


🤔 Altman lideró los esfuerzos para hacer de ChatGPT una de las aplicaciones de software de más rápido crecimiento en la historia y atrajo la inversión -y los recursos informáticos- necesarios de Microsoft para acercarse a una AGI.


📢 Además de anunciar una serie de nuevas herramientas en una demostración este mes, Altman bromeó la semana pasada en una cumbre de líderes mundiales en San Francisco que creía que se vislumbraban grandes avances.


🔥 "Cuatro veces en la historia de OpenAI, la más reciente fue en las últimas dos semanas, he tenido la oportunidad de estar en la sala, cuando empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia adelante, y llegar a hacer eso es el honor profesional de toda una vida", dijo en la cumbre del Foro de Cooperación Económica Asia-Pacífico. Al día siguiente, Altman fue despedido.