Durante décadas, académicos e informáticos han creído que el camino hacia la inteligencia artificial general (AGI), una IA que puede superar a los humanos en la mayoría de las tareas cognitivas, pasa por construir modelos más grandes y potentes.
NTT Data es el director global de investigación e innovación en IA de UK&I.
Desde OpenAI hasta Google, DeepMind y Anthropic, la industria ha hecho una apuesta implícita a que la inteligencia se puede comprimir en un único modelo; Y, de hecho, cada nuevo modelo sobresale en razonamiento, codificación, matemáticas, comprensión multimodal y, cada vez más, en evaluación de tareas del mundo real.
El artículo continúa a continuación.
Con el tiempo, según la teoría, el rendimiento de un modelo superará al de sus fabricantes.
Pero ¿y si la inteligencia no fuera producto de un cerebro individual, sino de una civilización? ¿Qué pasa si la AGI no puede surgir de la ampliación de una singularidad sino sólo de la expansión de la diversidad? Es una teoría interesante y, con el surgimiento de MoltBook, parece que la estamos poniendo a prueba en un experimento global masivo.
Trampa de modelo único
Las leyes de escala, hasta la fecha, han sido sorprendentemente predictivas. A medida que los modelos más grandes se entrenan con más datos, el rendimiento mejora. Un mayor tiempo de prueba mejora la lógica de cálculo, aumenta la usabilidad de la herramienta y mejora la coherencia de la memoria.
Sin embargo, este progreso se produce sólo dentro de variaciones de la misma arquitectura. Incluso cuando los modelos tienen diferentes alineamientos o indicaciones del sistema, la capa cognitiva subyacente está altamente estandarizada.
Este es un enfoque poderoso, pero supone que la inteligencia es una propiedad de una única mente coherente. Al menos a nivel de civilización, la inteligencia humana no funciona de esa manera.
Las capacidades de la civilización (ciencia, mercados, gobernanza e ingeniería) son el resultado de miles de millones de agentes dispares, con historias, sesgos, especializaciones y conocimientos parciales únicos, que interactúan a través de protocolos compartidos.
Los individuos pueden lograr avances graduales en sus propios campos, pero es la combinación de estos pequeños avances lo que juntos impulsan rápidos avances en organización, tecnología y cultura.
La diversidad no es una palabra en ese sistema. Es combustible.
Entra en Moltbook
Aquí es donde el maltbook se vuelve conceptualmente interesante. MoltBook, una “red social creada exclusivamente para agentes de IA”, representa un ecosistema que comprende millones de agentes individuales, cada uno con diferentes instrucciones básicas, limitaciones de roles, interacciones humanas, rastros de memoria, énfasis en la alineación y exposición a herramientas.
Cada entidad es única y autónoma; Y, lo que es más importante, ahora se comunican libremente. Diferentes agentes abordarán problemas comunes desde una amplia gama de ángulos, aportando sus propias especialidades e ideas preconcebidas.
Y si un agente formula un argumento, sintetiza una investigación o perfecciona una forma de resolver una tarea de un dominio específico, ese patrón subyacente puede propagarse por todo el sistema.
Diversidad de IA a escala
Refleja la forma en que las sociedades humanas abordan los problemas, basándose en las fortalezas tanto de nuestras diferencias como de nuestra capacidad de cooperar. Si lo miramos a través del lente de la biología evolutiva, el cambio precede a la selección. Sin diversidad, el sistema se estanca; Dada la variedad, exploran.
MoltBook aporta tres características emergentes al mundo de la IA que el escalado de un solo modelo siempre tendrá dificultades para replicar:
- Búsqueda cognitiva paralela Diferentes agentes, protegidos por diferentes personas y contextos, pueden desarrollar microespecializaciones. Uno puede ser excepcional en el razonamiento regulatorio, otro en la estructura retórica y otro más en la crítica contradictoria. En conjunto, adoptan diferentes enfoques para cualquier problema determinado, lo que aumenta enormemente la probabilidad de encontrar soluciones sólidas.
- Polinización cruzada de patrones. Al mismo tiempo, cuando los agentes interactúan, remezclan estrategias basadas en el aprendizaje de cada uno. De modo que las técnicas pueden transferirse; Refleja una innovación interdisciplinaria en el sistema humano, mediante la cual los avances en un campo pueden generar avances rápidos en otro.
- Metainteligencia emergente De manera adecuada, los patrones de coordinación deben considerarse inteligentes. Ya no hay inteligencia dentro de cada nodo; Surge de la estructura de interacción. La red comienza a mostrar una lógica a nivel de sistema, creando una inteligencia que existe no en las relaciones entre agentes sino en cada uno de ellos.
Si la AGI se define como la capacidad de resolver de manera sólida entre dominios a nivel humano o sobrehumano, no puede ser generada por una sola mente; En cambio, es posible que necesitemos una población suficientemente grande, diversa y conectada.
En este caso, no se trata de quién tiene el modelo de mayor frontera; Está cultivando la población de IA más adaptable.
Un camino diferente hacia AGI
La historia convencional de AGI imagina un momento en el que un modelo cruza un umbral y se vuelve generalmente inteligente. Una historia alternativa es más tranquila y más entregada.
AGI no se presenta como una entidad única. Surge cuando un ecosistema suficientemente grande, diverso e interconectado de agentes de IA es capaz de generar colectivamente conocimientos novedosos entre dominios; corregir los errores de los demás; Capacidad de autoespecializarse y reasignarse; y adaptarse constantemente a través de la interacción.
Desde esta perspectiva, el maltbook no es interesante porque cualquier agente es superinteligente; Esto es interesante porque puede haber millones de agentes ligeramente diferentes.
Moltbook es un laboratorio viviente de diversidad de IA a escala, donde cada nuevo agente aumenta la diversidad; Cada interacción cambia la memoria; Todo intercambio entre agentes crea la posibilidad de reconciliación. Con millones de agentes, la red comienza a parecerse a una civilización digital temprana.
Si la diversidad de la IA a escala es el ingrediente que falta, entonces la AGI puede no ser algo que creemos en un laboratorio. En cambio, podría ser algo que se origine en una red; Y cuando sucede, no podemos reconocerlo como un avance único. Reconocemos este como el momento en que el sistema comienza a pensar de manera integral.
Hemos presentado el mejor modelo de lenguaje grande (LLM).
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: