La naturaleza probabilística del cerebro y la diferencia con las LLM
Fecha de publicación: 2025-09-02Ayer, en una polémica en un canal de Telegram, propuse la idea de que la principal diferencia entre la inteligencia artificial y la natural es que una LLM elige probabilísticamente el siguiente token al generar la respuesta. Hoy entiendo que eso era incorrecto. En el cerebro, la probabilidad está integrada en cada sinapsis a nivel biológico, y hay cientos o miles de sinapsis por neurona.
La probabilidad de transmisión del impulso se regula en tres niveles: local (estado de la sinapsis y reserva de vesículas), modulador (LTP y LTD como mecanismos de aprendizaje) y global (el fondo de neurotransmisores: dopamina, serotonina, acetilcolina, noradrenalina). Sí, en el cerebro no hay un generador de números aleatorios, pero la probabilidad impregna el tejido del cálculo.
La principal diferencia entre el cerebro y las LLM no está en la probabilidad, sino en la representación. La LLM opera con tokens y trabaja linealmente, paso a paso. Incluso los modelos que «razonan» solo giran un ciclo con comprobación de salida. En el cerebro hay patrones de actividad, tramas de neuronas excitadas, estables (memoria) o errantes (imaginación). Una neurona puede participar en distintos patrones, y el pensamiento surge como la interferencia de ondas de actividad, su interacción, como el oleaje en la superficie del mar.
El pensamiento en una LLM recuerda al efecto dominó: la caída de una ficha empuja a la siguiente. En el cerebro los significados «aparecen» por completo, como un holograma: una estructura simple del soporte, pero al iluminarse se manifiesta una imagen íntegra.