La información ha pasado de ser un concepto técnico a revelarse como un principio estructural de la realidad. Desde Shannon hasta la física cuántica contemporánea, el universo aparece como un entramado de distinciones, correlaciones y patrones. Lo que llamamos materia, energía o espacio-tiempo puede entenderse como formas de información en proceso. Comprender la información es, en gran medida, comprender el propio tejido del cosmos.
En la física contemporánea, la noción de información ha dejado de ser un concepto accesorio para convertirse en un principio estructural. Allí donde antes hablábamos de materia, energía o fuerzas, hoy emergen patrones, correlaciones y códigos. Lejos de ser una característica secundaria del mundo, la información aparece como el sustrato mismo sobre el cual se articulan los fenómenos. En este sentido, la información no es un fenómeno cultural ni tecnológico: es una categoría ontológica.
El término, sin embargo, suele arrastrar ambigüedades. Reducirlo a un conjunto de datos es malinterpretar su naturaleza. Un dato aislado carece de estructura; es una posibilidad sin forma. La información surge cuando existe organización, cuando una configuración se distingue de las demás, cuando un sistema es capaz de producir diferencias estables frente al conjunto de estados posibles. La información es, en su núcleo, distinción formal emergente.
En su formulación más abstracta, la información puede definirse como la capacidad de un sistema para reducir incertidumbre en un espacio de posibilidades. Donde hay elección, hay información; donde hay estructura, hay forma informacional. Esto implica que cada entidad física —un átomo, una molécula, un organismo, una galaxia— constituye una solución concreta dentro de un espectro vastísimo de configuraciones posibles: un acto de selección dentro del espacio de lo potencial.
Esta perspectiva ha transformado radicalmente nuestra comprensión del universo. Cada vez más investigadores sostienen que lo que llamamos “materia” no es una sustancia fundamental, sino un régimen estable de información; que la energía es el proceso mediante el cual esa información se transforma; y que el espacio-tiempo es la geometría emergente en la que dicha organización se presenta. Bajo esta luz, el cosmos aparece como un tejido informacional dinámico, un entramado de relaciones cuyo fundamento no es el átomo, sino el bit.
La información entra en la ciencia: Shannon y la entropía
Aunque la palabra “información” parece algo cotidiano, fue recién a mediados del siglo XX cuando adquirió un significado riguroso en la ciencia. El responsable fue Claude Shannon, un ingeniero y matemático que en 1948 publicó un artículo fundacional: A Mathematical Theory of Communication. En él estableció las bases de la teoría de la información, disciplina que permite medir, codificar y transmitir mensajes con la máxima eficiencia.
Para Shannon, la información no era un concepto vago, sino algo cuantificable. Su definición fue revolucionaria: la información mide la reducción de incertidumbre. Dicho de otro modo, cuantos más resultados posibles pueda tener un sistema, más información obtenemos al observar su desenlace.
Un ejemplo sencillo lo muestra: si lanzo una moneda trucada que siempre cae en cara, no obtengo ninguna información porque el resultado es predecible. Pero si la moneda es justa, cada lanzamiento puede dar dos resultados posibles, y al observarlo reduzco mi incertidumbre: he obtenido un bit de información (del inglés binary digit). Si lanzo un dado, la incertidumbre inicial es mayor (seis posibles resultados), y al verlo obtengo más información: unos 2,58 bits.
Lo fascinante vino después: los físicos notaron que esta definición de Shannon era casi idéntica a otra noción fundamental, la entropía. Introducida por Ludwig Boltzmann en el siglo XIX, la entropía mide el grado de desorden de un sistema o, en términos más modernos, la cantidad de información que nos falta para especificar todos los microestados posibles. Cuantas más configuraciones posibles tenga un sistema, mayor será su entropía.
Así nació un puente conceptual: la información y la entropía son dos caras de una misma moneda. Obtener información reduce incertidumbre; aumentar entropía significa perderla.
El famoso experimento mental del demonio de Maxwell ya apuntaba en esa dirección. Maxwell imaginó una criatura microscópica capaz de abrir y cerrar una compuerta entre dos recipientes con gas, dejando pasar solo las moléculas rápidas a un lado y las lentas al otro. Con ello, crearía una diferencia de temperatura y violaría la segunda ley de la termodinámica, que prohíbe reducir la entropía sin gastar energía. La paradoja se resolvió cuando se entendió que el demonio debía medir y registrar la velocidad de cada molécula. Esa adquisición y gestión de información tienen un coste físico: no hay forma de separar el conocimiento del gasto energético asociado.
En 1961, el físico Rolf Landauer lo formuló con claridad: “La información es física”. Y demostró que borrar un bit de información tiene un coste mínimo de energía, equivalente a kTln(2)kT \ln(2)kTln(2), donde kkk es la constante de Boltzmann y T la temperatura. En otras palabras, cada vez que un ordenador borra un dato de su memoria, necesariamente libera calor al entorno, aumentando la entropía.
Este principio deja clara la relación:
- Obtener información reduce entropía desde el punto de vista del observador (ganamos conocimiento sobre el sistema).
- Borrar información siempre aumenta la entropía física del universo (porque eliminar posibilidades cuesta energía).
Wheeler y el “It from Bit”
Si Claude Shannon nos enseñó a medir la información en bits y a entenderla como reducción de incertidumbre, el físico John Archibald Wheeler llevó la idea a una dimensión mucho más profunda. Discípulo de Einstein y uno de los grandes pioneros en el estudio de los agujeros negros y la gravedad cuántica, Wheeler se atrevió a postular que la información no es solo una herramienta para describir la realidad: es el fundamento mismo de la realidad.
Su famosa frase, “It from bit”, puede traducirse como “el ser (it) surge del bit (bit)”. Lo físico —las partículas, la materia, el espacio-tiempo mismo— no serían más que manifestaciones de información en proceso. Para Wheeler, cada “sí/no” básico, cada respuesta binaria, constituye el ladrillo elemental del universo.
En esta visión, el papel del observador es decisivo. En la física clásica, medir era algo pasivo: el mundo estaba ahí, con sus propiedades definidas, y nosotros simplemente las descubríamos. Pero la mecánica cuántica rompió esa ilusión. En experimentos como el de la doble rendija, una partícula no tiene una trayectoria definida hasta que se mide: el acto de observar contribuye a definir el resultado. Wheeler tomó en serio esa lección y la elevó a una visión cósmica: el universo no está completamente definido de antemano, sino que se construye a través de la interacción informacional con los observadores. (Describimos con algo más de detalle el experimento de la doble rendija un poco más adelante en esta obra, desde luego merece mucho la pena intentar comprenderlo ya que es una voladura mental total).
En este marco, el cosmos se asemeja a un bucle de retroalimentación gigantesco. El universo engendra observadores conscientes capaces de hacer preguntas, realizar experimentos y registrar resultados. Y esos actos, a su vez, contribuyen a definir el universo. Wheeler lo describía como un proceso de “autocreación”: el universo y los observadores no están separados, sino entrelazados en un circuito donde la información fluye en ambas direcciones.
La idea puede parecer poética o incluso metafísica, pero toca un punto central de la física moderna: la imposibilidad de separar completamente lo observado del acto de observar. En el laboratorio cuántico, medir no es levantar un velo, sino coser un pedazo de realidad en el tapiz del mundo. Para Wheeler, esa misma lógica vale para el universo entero.
Esta inseparabilidad entre observador y realidad medible, formulada por Wheeler en clave informacional, resuena profundamente con la interpretación que más adelante desarrollaremos en este libro. Sin adelantar su estructura, baste señalar que el modelo propuesto converge en una intuición esencial: no existe “información” sin una instancia capaz de interpretarla, así como no existe un fenómeno cuántico definido sin un observador que lo actualice. En ambos casos, la realidad no aparece como un conjunto de objetos esperando ser descritos, sino como una trama potencial que solo adquiere forma —física o informacional— en virtud del acto de observación. Este paralelismo no es decorativo: señala una continuidad conceptual entre la física cuántica y una ontología informacional donde ser e interpretar constituyen dos aspectos inseparables de un mismo proceso.
Bohm y el orden implicado
Mientras Wheeler veía la realidad como un inmenso entramado de bits que se despliega gracias a la interacción con el observador, el físico cuántico David Bohm proponía una visión distinta pero igualmente radical: que el universo visible es sólo la superficie de un orden mucho más profundo.
Bohm había sido discípulo de Oppenheimer y colaborador de Einstein, y aunque participó activamente en el desarrollo de la física cuántica, siempre se sintió insatisfecho con las interpretaciones dominantes. Le parecía que reducían la realidad a fragmentos inconexos, cuando en su experiencia científica y humana lo fundamental era la totalidad.
De esa inquietud nació su teoría del orden implicado (implicate order). Según Bohm, lo que percibimos cotidianamente —el mundo tridimensional, los objetos separados, las cosas que parecen existir por sí mismas— pertenece al orden explicado (explicate order), una manifestación desplegada de un nivel más profundo. Ese nivel oculto, el orden implicado, es un dominio en el que todo está interconectado, donde cada parte contiene información sobre el todo y el todo está presente en cada parte.
Una de sus analogías favoritas era la del holograma. A diferencia de una fotografía común, en un holograma cada fragmento contiene la imagen completa: si se rompe el cristal, cada trozo sigue mostrando la figura entera, aunque con menos resolución. Así, el universo sería como un holograma cósmico: cada región del espacio contendría la totalidad del orden implicado, y lo que vemos como partes separadas serían solo distintas formas de despliegue de esa totalidad.
Otro ejemplo que Bohm utilizaba era el experimento de la tinta en glicerina. Si colocamos una gota de tinta en un cilindro con glicerina transparente y giramos lentamente el cilindro, la gota parece desintegrarse en finos hilos hasta desaparecer. Pero al girar en sentido contrario, la gota reaparece íntegra, como si el desorden fuera solo aparente. Para Bohm, así es nuestra experiencia del mundo: lo que nos parece fragmentado y caótico no es sino una proyección superficial de un orden más profundo y coherente.
Esta visión también se extendía a la consciencias. Para Bohm, la mente no era un subproducto accidental de la materia, sino otra manifestación del orden implicado. La consciencias y la realidad física formaban parte de un mismo tejido, inseparable e interdependiente. Por eso se interesó en el diálogo con filósofos y místicos, convencido de que la ciencia y la experiencia interior podían iluminarse mutuamente.
En el fondo, la propuesta de Bohm es un recordatorio de humildad: lo que vemos es solo la capa superficial de un universo mucho más vasto y entrelazado. La realidad manifiesta sería como una proyección, un despliegue parcial de una totalidad invisible que contiene toda la información del cosmos.
La teoría cuántica de la información
En la segunda mitad del siglo XX, la informática y la mecánica cuántica, que parecían disciplinas completamente separadas, empezaron a encontrarse en un terreno inesperado. De ese cruce nació la teoría cuántica de la información, un campo que hoy no solo es una revolución tecnológica en ciernes (los ordenadores cuánticos), sino también una de las claves para comprender la realidad misma.
La informática clásica trabaja con bits, unidades de información que pueden adoptar dos estados: 0 o 1, apagado o encendido, verdadero o falso. Pero en el mundo cuántico las cosas son más sutiles. Una partícula elemental, como un electrón, no tiene por qué estar en un estado definido de “aquí” o “allí”, “arriba” o “abajo”: puede estar en una superposición de estados. Esa propiedad dio lugar al concepto de qubit, el bit cuántico. Un qubit no es sólo 0 o 1, sino una combinación de ambos a la vez, hasta que se mide.
El verdadero poder de la información cuántica, sin embargo, aparece con el entrelazamiento. Cuando dos partículas se entrelazan, sus estados quedan correlacionados de tal manera que lo que le ocurra a una afecta instantáneamente a la otra, sin importar la distancia que las separe. Albert Einstein lo llamó con desdén “acción fantasmagórica a distancia”, pero las pruebas experimentales en las últimas décadas (especialmente los test de desigualdades de Bell realizados por Alain Aspect y, más recientemente, Zeilinger y otros —Premio Nobel de Física 2022—) han demostrado que el entrelazamiento es real.
Esto implica que lo fundamental en el nivel cuántico no es tanto la materia en sí, como las correlaciones de información entre sistemas. Lo que importa no es el estado aislado de una partícula, sino la red de relaciones que mantiene con otras. Dicho de otra manera: la realidad cuántica parece estar tejida de información compartida, más que de “cosas” independientes.
Este enfoque ha transformado nuestra forma de pensar la física. Por ejemplo, problemas que parecían insolubles en mecánica cuántica —como la paradoja de los agujeros negros o el origen de la decoherencia— se reformulan hoy en clave informacional. Algunos físicos incluso sostienen que la mecánica cuántica no es una teoría sobre partículas o campos, sino sobre información: sobre lo que podemos y no podemos saber, y cómo se correlaciona ese conocimiento.
En el terreno práctico, la teoría cuántica de la información está detrás de desarrollos como la computación cuántica, que promete resolver problemas imposibles para los ordenadores clásicos al aprovechar superposiciones y entrelazamientos. También fundamenta la criptografía cuántica, donde la seguridad de la comunicación no se basa en claves difíciles de romper, sino en principios de la naturaleza: cualquier intento de interceptar la información cuántica la altera y delata al intruso.
Más allá de las aplicaciones, lo esencial es la lección ontológica: la realidad no parece organizada como un conjunto de objetos sólidos, sino como un entramado de relaciones informacionales. Wheeler, con su “It from bit”, había intuido este horizonte; hoy, la teoría cuántica de la información lo está mostrando con experimentos cada vez más precisos.
El universo como ordenador cuántico
La imagen del universo como un gigantesco ordenador puede sonar provocadora, pero tiene bases científicas sólidas. El físico Seth Lloyd, del MIT, ha defendido que el cosmos entero puede entenderse como una máquina cuántica de información que lleva funcionando desde el Big Bang.
Según Lloyd, cada interacción elemental de la naturaleza —cuando dos partículas chocan, cuando un átomo se forma, cuando una estrella fusiona núcleos en su interior— puede describirse como una operación lógica, un cálculo cuántico. El universo, en este sentido, no es un lugar donde suceden cosas: es un proceso que computa su propia evolución, paso a paso, a partir de las reglas de la mecánica cuántica.
La propuesta va más allá de la metáfora. Lloyd calculó que, desde el Big Bang hasta hoy, el universo ha realizado aproximadamente 1012010^{120}10120 operaciones lógicas fundamentales, utilizando como “bits” los propios estados cuánticos de sus partículas. Este número descomunal representa la historia entera del cosmos como un cálculo en marcha. Cada evento físico es, al mismo tiempo, un paso de procesamiento de información.
La fuerza de esta visión radica en que unifica las tres categorías clásicas de la física —materia, energía y espacio-tiempo— bajo un mismo lenguaje: el de la información. La materia no sería más que información organizada en configuraciones estables. La energía sería el flujo que permite transformar esa información, moverla y procesarla. El espacio-tiempo actuaría como el escenario donde esa computación se desarrolla.
El universo, entonces, no solo contiene información: es información en proceso. Desde este punto de vista, no hay una diferencia radical entre un electrón que salta de órbita, una neurona que dispara un impulso eléctrico o un ordenador que ejecuta un programa: todos son manifestaciones de un mismo principio de procesamiento informacional, desplegado a distintas escalas.
Curiosamente, esta concepción resuena con ideas mucho más antiguas, como la de Leibniz, que en el siglo XVII imaginó el mundo formado por “mónadas” que no eran partículas materiales, sino centros de información y percepción. Hoy, con la teoría cuántica de la información, esa intuición parece haber encontrado un terreno científico fértil.
Si aceptamos esta perspectiva, el universo podría verse como un código que se ejecuta a sí mismo, un programa que no está escrito en un ordenador externo, sino en las propias leyes físicas. Y nosotros, como seres conscientes, seríamos parte de ese cálculo, nodos informacionales que no solo participan del proceso, sino que tienen la capacidad de reflexionar sobre él.
El principio holográfico
El principio holográfico es una de las ideas más sugerentes de la ciencia moderna, porque une física, neurociencia y filosofía en una imagen poderosa: lo que percibimos como realidad tridimensional podría ser, en esencia, una proyección de información codificada en un nivel más profundo.
La metáfora del holograma es clave. A diferencia de una fotografía convencional, en un holograma cada fragmento contiene la información completa de la imagen. Si se rompe, cada trozo sigue mostrando el todo, aunque con menor resolución. Esta propiedad inspiró a distintos pensadores en ámbitos diversos. El neurocientífico Karl Pribram propuso que el cerebro podría funcionar como un holograma: la memoria no estaría localizada en un punto concreto, sino distribuida en todo el tejido neural. De ahí que, incluso con lesiones cerebrales, los recuerdos puedan persistir: la información estaría repartida como en un holograma roto.
Lo sorprendente es que esta metáfora encontró eco en la física teórica más rigurosa. A mediados de los años 70, Jacob Bekenstein y Stephen Hawking descubrieron que los agujeros negros no solo absorbían materia y energía, sino que también tenían entropía. Pero esa entropía —una medida de la información que puede almacenarse— no crecía con el volumen del agujero, sino con la superficie de su horizonte de sucesos. Dicho de otro modo: la información máxima de un agujero negro depende de su frontera, no de su interior.
Esa pista llevó a Gerard ’t Hooft y Leonard Susskind a proponer el principio holográfico: toda la información contenida en un volumen de espacio puede estar codificada en su frontera, como si el universo entero fuera un holograma tridimensional proyectado desde una superficie bidimensional.
En los años 90, la conjetura se volvió aún más concreta con la llamada dualidad AdS/CFT (formulada por Juan Maldacena). Esta propone que una teoría de gravedad en un espacio de N dimensiones es matemáticamente equivalente a una teoría cuántica sin gravedad en la frontera de N-1 dimensiones. Lo que parece ciencia ficción es hoy una de las herramientas más poderosas en la física teórica: dos descripciones muy diferentes —una con gravedad, otra sin ella— pueden ser en realidad dos caras de la misma información.
Metafísicamente, la implicación es vertiginosa: lo que vivimos como un universo tridimensional podría ser una proyección informacional de algo más fundamental, inscrito en un nivel “de frontera”. La materia, el espacio y el tiempo serían el despliegue visible de un código oculto.
El principio holográfico, entonces, no es solo una especulación abstracta: es un puente entre ciencia y filosofía, entre física y metafísica. Nos sugiere que la realidad que habitamos no es la capa más profunda, sino una representación emergente de una trama de información que, en última instancia, podría ser lo único verdaderamente real.
"Sin nombre es el origen del cielo y de la tierra; con nombre es la madre de las diez mil cosas."
Tao Te King (Cap.1)