International Essays

¿Y si tuviéramos cerebros más grandes? Imaginando mentes más allá de la nuestra

21 de mayo de 2025
Este cuaderno es una traducción al español del artículo de la Comunidad Wolfram “What If We Had Bigger Brains? Imagining Minds beyond Ours” producido con ayuda de un LLM y verificado por un traductor profesional

Los gatos no hablan

Los seres humanos tenemos quizá 100 mil millones de neuronas en nuestro cerebro. ¿Pero qué pasaría si tuviéramos muchas más? ¿O si las IA que construimos tuvieran muchas más? ¿Qué tipo de cosas podrían volverse posibles entonces? Con 100 mil millones de neuronas sabemos, por ejemplo, que el lenguaje composicional del tipo que usamos los humanos es posible. Con los 100 millones de neuronas que tiene un gato aproximadamente, no parece ser posible. ¿Pero qué sería posible con 100 billones de neuronas? ¿Y es incluso algo que podríamos siquiera imaginarnos siendo capaces de comprender?
Mi propósito aquí es comenzar a explorar tales preguntas, guiado por lo que hemos visto en los últimos años en redes neuronales y LLM, así como por lo que ahora sabemos sobre la naturaleza fundamental de la computación, y sobre la neurociencia y el funcionamiento de los cerebros (como el que está escribiendo esto, representado aquí):
In[]:=
tocrop=BorderDimensions
;​​cropped=ImagePad
,-tocrop;​​lhs=ImageResize[cropped,{1086/1,Automatic}];;​​lhs=Colorize[lhs,ColorFunction->Blend[RGBColor/@{
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
},#]&];​​rhs=ImageReflect
,Left;​​rhs=Colorize[ImageAdjust[rhs,{.1,.4}],ColorFunction->Blend[RGBColor/@{
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
,
},#]&];​​toexport=GraphicsRow[{lhs,rhs},ImageSize->{1240,560},Spacings->{{0,150},{0,0}},ImagePadding->0];​​Magnify[toexport,.5]
Un punto sugerente es que a medida que las redes neuronales artificiales se han vuelto más grandes, parecen haber superado sucesivamente una secuencia de umbrales en su capacidad:
In[]:=
Text[Grid[{Row[{"~",Superscript[10,#1]," connections"}],#2}&@@@{{5,"recognize images of 10 digits"},{6,"recognize images of all letters"},{7,"recognize images of 5000 picturable nouns "},{8,"transcribe speech from audio"},{9,"generate photorealistic images from text"},{11,"generate fluent natural language text"}},Alignment->Left,Frame->All,FrameStyle->GrayLevel[.7]]]
¿Y ahora qué sigue? Sin duda, habrá cosas como el control robótico humanoide, las cuales tienen análogos cercanos a lo que ya hacemos los humanos. ¿Pero qué pasaría si vamos mucho más allá de las
~
14
10
conexiones de nuestros cerebros humanos? ¿Qué tipos cualitativamente nuevos de capacidades podrían existir entonces?
Si esto tratara sobre “computación en general”, entonces realmente no habría mucho de qué hablar. El Principio de Equivalencia Computacional implica que, más allá de cierto umbral bajo, los sistemas computacionales pueden producir de manera genérica un comportamiento que corresponda a cálculos tan sofisticados como sea posible. Y, de hecho, eso es lo que vemos en muchos contextos abstractos al igual que en el mundo natural.
Pero el punto es que no estamos tratando con la "computación en general". Estamos tratando con los tipos de cálculos que los cerebros realizan fundamentalmente. Y la esencia de estos parece estar relacionada con recibir grandes cantidades de datos sensoriales y luego encontrar lo que equivale a decisiones sobre qué hacer a continuación.
No es evidente que exista una forma razonable de hacer esto. El mundo en general está lleno de irreducibilidad computacional, donde la única manera general de averiguar lo que sucederá en un sistema es simplemente ejecutar las reglas subyacentes de ese sistema paso a paso y ver el resultado:
In[]:=
SeedRandom[242424];ArrayPlot[CellularAutomaton[{271469060,{5,1}},RandomInteger[{0,4},400],150],ColorRules->{0White,1Green,2->Blue,3->Yellow,4Red},FrameFalse]
Y sí, hay muchas preguntas y cuestiones para las cuales, esencialmente, no hay más opción que realizar este cálculo irreducible, así como hay muchos casos en los cuales los LLM se ven bajo la necesidad de recurrir a nuestro sistema de cálculo Wolfram Language para realizar cálculos. Pero los cerebros, para lo que más les importa, de alguna manera logran habitualmente “adelantarse” sin, en efecto, simular cada detalle. Y lo que hace esto posible es el hecho fundamental de que dentro de cualquier sistema que muestre irreducibilidad computacional general, debe haber inevitablemente un número infinito de “bolsillos de reducibilidad computacional”, en efecto asociados con “características simplificadoras” del comportamiento del sistema.
Son estos “bolsillos de reducibilidad” los que los cerebros aprovechan para poder “navegar” el mundo con éxito para sus propios fines, a pesar de su “fondo” de irreducibilidad computacional. Y en estos términos, cosas como el progreso de la ciencia (y la tecnología) pueden básicamente considerarse como la identificación de cada vez más bolsillos de reducibilidad computacional. Entonces, podemos imaginar que las capacidades de cerebros más grandes podrían girar en torno a poder “mantener en mente” más de estos bolsillos de reducibilidad computacional.
Podemos pensar que los cerebros sirven fundamentalmente para “comprimir” la complejidad del mundo, y extraer de ella solo ciertos rasgos, relacionados con bolsillos de reducibilidad, que nos importen. Para nosotros, una manifestación clave de esto es la idea de los conceptos, y del idioma que los utiliza. Al nivel de entradas sensoriales en bruto, podríamos ver muchas imágenes detalladas de alguna categoría de cosa, pero el lenguaje nos permite describirlas a todas solo en términos de un concepto simbólico en particular (por ejemplo, “roca”).
En una primera aproximación estimada, podemos imaginar que existe una correspondencia directa entre los conceptos y las palabras en nuestro idioma. Resulta notable que todos los idiomas humanos tienden a tener quizá 30 000 palabras comunes (o constructos similares a palabras). ¿Entonces, es esa escala el resultado del tamaño de nuestros cerebros? ¿Y podrían cerebros más grandes quizá manejar muchas más palabras, por ejemplo millones o más?
"¿De qué podrían tratar todas esas palabras?", podríamos preguntarnos. Después de todo, nuestra experiencia cotidiana hace que parezca que nuestras 30 000 palabras actuales son suficientes para describir el mundo tal como es. Pero en cierto sentido esto es circular: hemos inventado las palabras que tenemos porque son las que necesitamos para describir los aspectos del mundo que nos importan y de los cuales queremos hablar. Siempre habrá más características, digamos, del mundo natural de las que podríamos hablar. Simplemente no hemos elegido involucrarnos con ellas (por ejemplo, perfectamente podríamos inventar palabras para todos los patrones detallados de las nubes en el cielo, pero esos patrones no son algo de lo que actualmente sintamos la necesidad de hablar en detalle).
Pero, según nuestro conjunto actual de palabras o conceptos, ¿existe un “cierre” a esto? ¿Podemos operar exitosamente en una “porción autoconsistente de espacio conceptual” o siempre nos encontraremos necesitando nuevos conceptos? Podríamos considerar que los nuevos conceptos están relacionados con el progreso intelectual al cual elegimos o no dedicarnos. Pero en la medida en que la “operación del mundo” sea computacionalmente irreducible, básicamente es inevitable que, eventualmente, nos enfrentemos a cosas que no pueden ser descritas por nuestros conceptos actuales.
¿Por qué entonces el número de conceptos (o palabras) no aumenta constantemente? Una razón fundamental es la abstracción. La abstracción toma conjuntos de potencialmente grandes cantidades de cosas específicas (“tigre”, “león”, ...) y permite que sean descritas de manera “abstracta” en términos de algo más general (por ejemplo, “felinos grandes”). Y la abstracción es útil si es posible hacer afirmaciones colectivas sobre esas cosas generales (“todos los felinos grandes tienen...”), proporcionando en efecto una manera consistente de pensar acerca de las cosas a un “nivel superior”.
Si imaginamos que los conceptos están relacionados con bolsillos de reducibilidad particulares, entonces el fenómeno de la abstracción es un reflejo de la existencia de redes de estos bolsillos. Y, sí, dichas redes pueden presentar a su vez irreducibilidad computacional, la cual a la vez puede tener sus propios bolsillos de reducibilidad, etc.
¿Y qué hay de las redes neuronales (artificiales)? Es habitual “mirar dentro” de ellas y, por ejemplo, ver los posibles patrones de activación en una capa dada, de acuerdo a un rango de posibles entradas (“del mundo real”). Entonces podemos considerar que estos patrones de activación están formando puntos en un “espacio de características”. Y normalmente podremos ver agrupaciones de estos puntos, los cuales potencialmente podemos identificar como “conceptos emergentes” que podemos considerar como “descubiertos” por la red neuronal (o más bien, por su entrenamiento). Normalmente, no habrá palabras existentes en idiomas humanos que correspondan a la mayoría de estos conceptos. Estos representan bolsillos de reducibilidad, pero unos que hayamos identificado, o que hayan sido capturados por nuestras típicas 30 000 palabras, aproximadamente. Y sí, incluso en las redes neuronales actuales, fácilmente puede haber millones de “conceptos emergentes”.
¿Pero serán abstracciones o conceptos útiles, o simplemente “ejemplos incidentales de compresión que no están conectados con nada más? La construcción de redes neuronales implica que un patrón de “conceptos emergentes” en una capa necesariamente alimentará la siguiente capa. Pero la pregunta es realmente si el concepto puede ser de alguna manera útil de manera “independiente”, y no solo en este lugar particular de la red neuronal.

Cómo parecen funcionar los cerebros

El lenguaje y más allá

Sensores y actuadores

Abstracción

Lenguaje computacional

Muchos cerebros juntos: la formación de la sociedad

Mentes más allá de la nuestra