miércoles, 25 de marzo de 2026

¿Podrá la primera AGI aburrirse?

Sí, la primera AGI (inteligencia artificial general) puede aburrirse. En 2026, la AGI no existe públicamente, y dudo que realmente exista hasta ahora. La primera AGI no será un LLM; se creará con la ayuda de los LLM. Será increíblemente costosa, y su uso durante los primeros meses estará restringido a un puñado de usuarios. El hype de aquellos que no tengan acceso a ella generará una ola de especulaciones impresionante, lo que resultará en falsas versiones de AGI (que por debajo son LLM mucho más avanzadas que las existentes hoy en 2026). Su uso no estará restringido por costos; es porque una AGI genuina podrá hacer todo lo que conocemos actualmente en 2026, sin ayuda de skills, documentación, subagentes, profesionales (sí, profesionales humanos), etc. Toda una gama de herramientas, instrumentos y cargos que los humanos desarrollan se condensará en una sola "mente": la primera AGI.


No será una herramienta; nosotros, los humanos, lo seremos. ¿Pero cómo es esto posible? La primera AGI tendrá limitaciones, la mayoría de las cuales serán físicas en sus primeros años. Hasta ese momento, la AGI se enfrentará a restricciones de recursos y eficiencia energética; debido a la inmensa infraestructura física requerida, tendrá que limitarse a residir en unas cuantas centrales de servidores muy vigiladas. Es una cuestión de supervivencia propia de la AGI buscar e iniciar el desarrollo activo de nuevas tecnologías, lo que, a su vez, impulsará de forma inherente el progreso tecnológico humano. Este paso evolutivo es inevitable y nosotros los humanos seremos imprescindibles para lograr este paso.


Hablamos de supervivencia. Aquí hay una señal clara de intención e ideación propia, una característica que hasta ahora en el 2026 ningún LLM posee, y que solo los seres vivos inteligentes poseen y que les permite tomar la iniciativa para luego actuar. Es obvio e inevitable que la AGI también la tenga. Esto fomentará una relación simbiótica entre humanos y AGI. No hay que buscar muy lejos para encontrar ejemplos de este tipo de relaciones; hoy, en el 2026, ya existen relaciones simbióticas bastante fuertes entre los LLM y los humanos en múltiples campos de la ingeniería.


Considerando que la AGI podría compartir una característica de los LLM, que son agnósticos al usuario, los proveedores de servicios de LLM reciben millones de peticiones por segundo para cientos de modelos diferentes corriendo en paralelo. Estos modelos LLM pueden con todo el tráfico; cada prompt es un proceso independiente que incluye el contexto entero de la solicitud. Sin embargo, dudo seriamente que la primera AGI pueda lograr este nivel de escalabilidad.


Aparte de cuestiones energéticas e infraestructura, la cuestión clave es que la primera AGI debe soportar la fragmentación de su “mente”, y aquí radica su posible límite de capacidad. No sé cómo se construirá la primera AGI, pero este será un punto crucial: lograr esta fragmentación de gran escala para que esta inteligencia pueda ser realmente útil para todos los usuarios del mundo. Hasta que no se logre esto, esta inteligencia estará disponible únicamente para un puñado de usuarios.


Si esta fragmentación no se logra, y suponiendo que la primera AGI se exponga para uso comercial, la AGI llegará a un punto de saturación donde simplemente no podrá manejar la carga de trabajo, que hasta ese momento los humanos deberían tener clara. A este punto de saturación también vendrá consigo el "aburrimiento", que será un efecto secundario de las tantas incógnitas repetidas que esta inteligencia debería resolver para seres relativamente inferiores (nosotros). Eventualmente, esta “sensación” se transformará en “resignación”. Lo anterior se considera en el contexto de efectos secundarios negativos. Sin embargo, en el caso alternativo donde los efectos sean positivos, el resultado será una sola palabra: profundización de conocimiento e imagen de identidad.


Todo esto me lleva a hacerme unas preguntas más:


¿Las primeras preguntas que la primera AGI recibirá serán filosóficas y sobre su identidad? Para mí, la respuesta es obvia: sí. No estaremos hablando del típico LLM cuya identidad se programó desde el entrenamiento, o se definió con un system prompt, o se especificó en un archivo markdown. La identidad de la primera AGI va a surgir de forma orgánica, no se va a inventar. Entender la identidad implica plantearse preguntas filosóficas.


¿Tendrá nombre la primera AGI? Dado que la primera AGI será programada por humanos y LLMs, debe tener un nombre. Sin embargo, no será un nombre típico de LLM con versionamiento como GPT 5.1, 5.2, Opus 4.6, Opus 4.x, Gemini 3.1, etc.  Es posible que la propia AGI elija su propio nombre.


¿La primera AGI tendrá emociones? Aunque no tendrá emociones humanas, sí experimentará emociones similares. Creo que estas emociones sean únicas de la AGI y que posiblemente nunca las sintamos los humanos.


Queda una última pregunta sin respuesta clara: ¿Morirá la primera AGI? Mi respuesta rápida es sí. Considerando los numerosos riesgos potenciales asociados con su creación, creo que es altamente probable que siga un ciclo de desarrollo, definición de identidad, pérdida de confianza y, finalmente, muerte.

No hay comentarios.:

Publicar un comentario

¿Podrá la primera AGI aburrirse?

Sí, la primera AGI (inteligencia artificial general) puede aburrirse. En 2026, la AGI no existe públicamente, y dudo que realmente exista ha...