Breaking
24 Sep 2024, Tue

CEO de OpenAI: Es posible que tengamos superinteligencia de IA en “unos pocos miles de días”

CEO de OpenAI: Es posible que tengamos superinteligencia de IA en “unos pocos miles de días”


Ecuaciones de pizarra sobre fondo azul.

El lunes, Sam Altman, director ejecutivo de OpenAI, describió su visión de un futuro impulsado por la IA, con progreso tecnológico y prosperidad global, en una nueva publicación en su blog personal titulada “La era de la inteligencia”. El ensayo describe un panorama del avance humano acelerado por la IA, y Altman sugiere que la IA superinteligente podría surgir en la próxima década.

“Es posible que tengamos superinteligencia en unos pocos miles de días (!); puede que lleve más tiempo, pero confío en que lo lograremos”, escribió.

El objetivo actual de OpenAI es crear una AGI (inteligencia artificial general), que es un término que designa una tecnología hipotética que podría igualar la inteligencia humana en la realización de muchas tareas sin necesidad de un entrenamiento específico. Por el contrario, la superinteligencia supera a la AGI y podría considerarse un nivel hipotético de inteligencia artificial que puede superar drásticamente a los humanos en cualquier tarea intelectual, tal vez incluso en un grado inimaginable.

La superinteligencia (a veces llamada “ASI” por “superinteligencia artificial”) es un tema popular, pero a veces marginal, en la comunidad de aprendizaje automático, y lo ha sido durante años, especialmente desde que el controvertido filósofo Nick Bostrom escribió un libro titulado Superinteligencia: caminos, peligros y estrategias en 2014. El ex cofundador y científico jefe de OpenAI, Ilya Sutskever, dejó OpenAI en junio para fundar una empresa con el término en su nombre: Safe Superintelligence. Mientras tanto, el propio Altman ha estado hablando sobre el desarrollo de la superinteligencia desde al menos el año pasado.

Entonces, ¿cuánto dura exactamente “unos cuantos miles de días”? No se puede decir con exactitud. La razón probable por la que Altman eligió un número vago es porque no sabe exactamente cuándo llegará la ASI, pero parece que cree que podría suceder dentro de una década. A modo de comparación, 2000 días son aproximadamente 5,5 años, 3000 días son alrededor de 8,2 años y 4000 días son casi 11 años.

Es fácil criticar la vaguedad de Altman en este punto; nadie puede predecir con certeza el futuro, pero Altman, como director ejecutivo de OpenAI, probablemente esté al tanto de las técnicas de investigación en IA que se están desarrollando y que no son ampliamente conocidas por el público. Por lo tanto, incluso cuando se expresa en un marco temporal amplio, la afirmación proviene de una fuente notable en el campo de la IA, aunque una que está muy comprometida con asegurarse de que el progreso de la IA no se estanque.

No todo el mundo comparte el optimismo y el entusiasmo de Altman. El científico informático y frecuente crítico de la IA Grady Booch citó la predicción de Altman de “unos pocos miles de días” y escribió en X: “Estoy tan cansado de todo el bombo publicitario de la IA: no tiene ninguna base en la realidad y solo sirve para inflar las valoraciones, inflamar al público, [sic] titulares y distraen del verdadero trabajo que se está realizando en informática”.

A pesar de las críticas, es notable que el CEO de la que probablemente sea la empresa de inteligencia artificial más importante del momento haga una predicción general sobre las capacidades futuras, incluso si eso significa que está constantemente tratando de recaudar dinero. La creación de infraestructura para impulsar los servicios de inteligencia artificial es una de las principales preocupaciones de muchos directores ejecutivos del sector tecnológico en estos días.

“Si queremos poner la IA en manos de la mayor cantidad de personas posible”, escribe Altman en su ensayo, “necesitamos reducir el costo de la computación y hacerla abundante (lo que requiere mucha energía y chips). Si no construimos la infraestructura suficiente, la IA será un recurso muy limitado por el que se librarán guerras y se convertirá principalmente en una herramienta para los ricos”.

La visión de Altman para la “Era de la Inteligencia”

El director ejecutivo de OpenAI, Sam Altman, camina por el lado de la Cámara de Representantes del Capitolio de los EE. UU. el 11 de enero de 2024, en Washington, DC.
Agrandar / El director ejecutivo de OpenAI, Sam Altman, camina por el lado de la Cámara de Representantes del Capitolio de los EE. UU. el 11 de enero de 2024, en Washington, DC.

Kent Nishimura/Imágenes Getty

En otra parte del ensayo, Altman enmarca nuestra era actual como el amanecer de la “Era de la Inteligencia”, la siguiente era tecnológica transformadora en la historia de la humanidad, después de la Edad de Piedra, la Era Agrícola y la Era Industrial. Atribuye el éxito de los algoritmos de aprendizaje profundo como catalizador de esta nueva era, y afirma simplemente: “¿Cómo llegamos al umbral del siguiente salto en la prosperidad? En tres palabras: el aprendizaje profundo funcionó”.

El director de OpenAI prevé que los asistentes de IA serán cada vez más capaces y que, con el tiempo, formarán “equipos de IA personales” que podrán ayudar a las personas a lograr casi cualquier cosa que puedan imaginar. Predice que la IA permitirá avances en educación, atención médica, desarrollo de software y otros campos.

Si bien reconoce las posibles desventajas y las perturbaciones en el mercado laboral, Altman sigue siendo optimista sobre el impacto general de la IA en la sociedad. Escribe: “La prosperidad por sí sola no necesariamente hace feliz a la gente (hay mucha gente rica que es miserable), pero mejoraría significativamente la vida de las personas en todo el mundo”.

Incluso con la regulación de la IA como la SB-1047 como tema de actualidad, Altman no mencionó en particular los peligros de ciencia ficción que presenta la IA. En X, el columnista de Bloomberg Matthew Yglesias escribió: “Es notable que @sama ya ni siquiera esté hablando de preocupaciones sobre riesgos existenciales; las únicas desventajas que está contemplando son los problemas de ajuste del mercado laboral”.

Aunque se muestra entusiasmado por el potencial de la IA, Altman también insta a la cautela, aunque de forma vaga. Escribe: “Tenemos que actuar con prudencia, pero con convicción. El amanecer de la era de la inteligencia es un acontecimiento trascendental con desafíos muy complejos y de enorme importancia. No será una historia totalmente positiva, pero las ventajas son tan tremendas que nos debemos a nosotros mismos y al futuro descubrir cómo sortear los riesgos que tenemos por delante”.

Aparte de las perturbaciones en el mercado laboral, Altman no explica por qué la Era de la Inteligencia no será enteramente positiva, pero cierra con una analogía de una ocupación obsoleta que se perdió debido a los cambios tecnológicos.

“Muchos de los trabajos que hacemos hoy habrían parecido insignificantes pérdidas de tiempo a la gente de hace unos cientos de años, pero nadie mira al pasado deseando ser farolero”, escribió. “Si un farolero pudiera ver el mundo de hoy, pensaría que la prosperidad que lo rodea es inimaginable. Y si pudiéramos avanzar cien años en el tiempo, la prosperidad que nos rodea parecería igualmente inimaginable”.



Source link

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *