Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
La sustancia primordial del universo, la que da forma a todo lo que somos y sabemos y se manifiesta a través de la energía, la materia, el espacio y el tiempo, no es más que información codificada. Bits. A lo largo de toda nuestra vida acumulamos información, desde que somos concebidos hasta que morimos y desaparecemos. Un proceso acelerado en la actualidad merced a los dispositivos informáticos. Transmitimos en vida la información contenida en las moléculas de ADN, mediante la reproducción. Tras la muerte, liberamos, a través de los procesos de descomposición orgánica y química, la información que ocultan el resto de nuestras moléculas. Hasta hay quien cree que la información íntima, almacenada en nuestra consciencia, no se dispersa caóticamente, sino que se preservará en el universo, en algún formato cuántico aún desconocido por la ciencia. Los seres vivos somos entidades generadoras de información. Por este motivo, algunos destacados físicos avanzan la hipótesis de que la función esencial de la vida, la razón de nuestra existencia, sea probablemente contribuir al mantenimiento del acervo informativo del universo. José Enrique Campillo presenta y desarrolla, de manera asequible, los argumentos que probarían que la información es el origen y el manual de instrucciones de todos los elementos que conforman la realidad, la vida y la consciencia. Todo es información, o, como afirmó el eminente físico teórico norteamericano John Archibal Wheeler: «Todo es bit».
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 306
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
EL UNIVERSO EN UN BIT
© del texto: José Enrique Campillo Álvarez, 2022
Autor representado por Silvia Bastos, S. L.
© de esta edición: Arpa & Alfil Editores, S. L.
Primera edición: octubre de 2022
ISBN: 978-84-18741-78-4
Diseño de colección: Enric Jardí
Diseño de cubierta: Anna Juvé
Maquetación: Àngel Daniel
Producción del ePub: booqlab
arpaeditores.com/pages/sostenibilidad para saber más.
Arpa
Manila, 65
08034 Barcelona
arpaeditores.com
Reservados todos los derechos.
Ninguna parte de esta publicación puede ser reproducida, almacenada o transmitida por ningún medio sin permiso del editor.
José Enrique Campillo Álvarez
AGRADECIMIENTOS
1. La información es la sustancia del universo
2. La historia del bit
3. Información y orden
4. Información, energía y materia
5. ¿Cómo se manifiesta la información?
6. En el principio fue el bit
7. La vida es información
8. Las biomoléculas
9. Las cibercélulas
10. Biointernet
11. Un cerebro, dos computadoras
12. Cerebro cuántico
13. La revolución digital
14. Hibridación mente-máquina
15. La duración
16. Las dimensiones de la información
CONCLUSIONES Y PROSPECTIVAS
BIBLIOGRAFÍA
La información que recibimos durante los primeros años determina, en gran parte, lo que seremos a lo largo de nuestra vida. Es información que entra en nuestra computadora cerebral mientras se está acabando de formar. Y gran parte del software que se desarrolle en nuestro cerebro dependerá de esa primera información recibida.
Durante mis primeros años de vida no existía la televisión, ni los ordenadores, ni los teléfonos móviles. La fuente fundamental de información, además de la que se recibía en la escuela y en el cine del domingo, eran las excursiones al campo, los libros que leíamos y los familiares con los que pudiéramos conversar.
Yo tuve mucha suerte. Tuve libros a mi alrededor, tuve naturaleza que explorar y familiares que supieron crear un entorno informativamente muy favorable para mi desarrollo. Quiero rendir un homenaje de agradecimiento a dos de estas personas que tan importantes fueron en mi vida: José María Álvarez, mi abuelo Pepe y José María Campillo, mi padre.
A ambos dedico este libro. Quizá reciban con benevolencia mis palabras, allí donde estén, si acaso fueran ciertas algunas de las hipótesis que se plantean en las páginas que siguen.
En los últimos cien años la física, en todas sus ramas ha logrado avances extraordinarios. Uno de estos avances, quizá de los más importantes, es que la ciencia considera a la información como una magnitud física y la sustancia fundamental del universo y de la vida.
¿A qué nos referimos cuando hablamos de sustancia? Desde la filosofía se considera sustancia aquello que existe por sí mismo, que no necesita de otra cosa como soporte para existir. Es la base primordial, invariable, de todo cuanto existe, conservada pese a todas las transformaciones, a diferencia de lo que sucede con los objetos y fenómenos concretos sujetos a cambio. La sustancia es, por tanto, la esencia más general y profunda cuya causa y fundamento no se hallan incluidos en alguna otra cosa, sino en ella misma.
A la luz de la física actual, muchas de las cosas que antes se consideraban sustancias, son en realidad propiedades, como sucede con la materia y la energía, como veremos a lo largo del libro. Les adelanto que la energía solo es la expresión de la aplicación de alguna de las fuerzas fundamentales; por ejemplo, la actuación de la fuerza de gravedad sobre el agua de un embalse produce la energía eléctrica. Y la materia es solo una forma de energía, como muestra la famosa ecuación de Einstein y lo comprobaron los habitantes de Hiroshima y Nagasaki. Materia y energía solo son, como veremos, formas de expresión de la información.
Eso nos lleva a aceptar que la única sustancia fundamental del universo, desde el punto de vista actual de la física es esa magnitud que llamamos información.
Por lo tanto, la física considera la información como una magnitud física, que puede ser medida, cuantificada, transformada y almacenada, observada y usada. La unidad de información es el bit (binary digit), que expresa siempre la existencia de dos estados alternativos: uno y cero, encendido o apagado, cara o cruz, etc.
Como veremos con detalle, la información representa una relación, un estado físico o función (por ejemplo el menú de un restaurante o la regulación de la glucemia en nuestro organismo), codificado en un objeto físico (un QR o una molécula de insulina), que puede ser descodificado por otro sistema (el teléfono móvil, los receptores de las células musculares) que puede interpretar significativamente los datos e implementarlos en otro sistema físico (nuestro cerebro que pide la comanda, nuestro organismo que asimila la glucosa de un pastel).
La información, aunque sustancia fundamental, necesita un soporte material o energético para existir y expresarse. Ya veremos cómo ese soporte, ya sea en el universo, en un ser vivo o en el disco duro de un ordenador, lo proporcionan los átomos, partículas y ondas que constituyen el entramado íntimo de todo lo que existe.
¿Podría nuestro universo, en toda su riqueza y diversidad, ser realmente solo un montón de bits de información más o menos organizados? ¿Es la vida un sistema para el almacenamiento y procesamiento de la información?
En los últimos años del siglo pasado y los que llevamos del presente, esta magnitud física, la información, ha desencadenado un gran esfuerzo investigador en ciencias de la computación, astrofísica y física teórica. Hoy día es difícil concebir el universo y la vida sin recurrir a la información.
Este asunto de la información como sustancia fundamental del universo y de la vida es muy complejo y difícil de abordar. Los cálculos que se utilizan para adentrarse en este asunto son intrincados y al alcance de muy pocos.
Leonard Susskind, profesor de física teórica de la Universidad de Stanford y creador de la teoría de cuerdas, manifestaba en una entrevista que el cerebro humano fue construido mediante mecanismos darwinianos. A lo largo de millones de años de evolución el cerebro se fue adaptando para comprender el mundo en el cual transcurría nuestra vida diaria; un mundo ordinario, con parámetros ordinarios. La evolución desarrolló un cerebro capaz de fabricar armas para cazar, recolectar frutos, cultivar plantas o domesticar animales. Un cerebro para sobrevivir en el mundo macroscópico y accesible en el que vivimos. A lo largo del libro nos referiremos a este mundo en el que transcurre nuestra cotidianeidad como mundo newtoniano.
La evolución no diseñó un cerebro para comprender las fuerzas que gobiernan la estructura y función de lo extremadamente pequeño como los átomos, las partículas, las ondas (ese es el mundo cuántico), ni para adentrarse en las grandes dimensiones espaciales donde impera la relatividad (el mundo cósmico).
Los seres humanos tuvieron que inventar un artificio que les permitiera comprender esos otros mundos inaccesibles en el transcurrir de una vida normal, tarea para la que nuestro cerebro no fue construido. Así surgieron las matemáticas abstractas, que en muchas ocasiones llegan a ser tan antiintuitivas que solo están al alcance de unos pocos. Sobre esas potentes ecuaciones, algunos científicos, especialmente los físicos matemáticos, reiteran que la sustancia fundamental del universo es la información.
Uno de los grandes físicos que promovió el considerar a la información como el fundamento de toda la física y de todo el universo fue el estadounidense John Archibald Wheeler. En el tercer simposio internacional sobre «Fundamentos de la mecánica cuántica», celebrado en Tokio en 1989, enunció su célebre eslogan «It from bit» (todo procede del bit). Su intervención dio lugar a una extensa publicación, citada en la bibliografía y de libre acceso en internet. Para Wheeler, «It» es cada partícula, cada campo o fuerza incluso el continuo espacio-tiempo. Todas esas magnitudes derivan su función, su significado, su existencia de (from) las respuestas obtenidas por el sistema a preguntas de elecciones binarias, los bits.
¿Es posible que todo lo que nos rodea no sea más que las manifestaciones de un infinito compendio de ceros y unos? ¿Es posible reconstruir las leyes de la física, el espacio, el tiempo, la materia, en términos puramente informáticos?
En el último siglo la física nos ha mostrado que el universo y la vida que alberga son muy diferentes a como pensábamos. Todo lo que existe, todo el universo, los astros, los agujeros negros, el planeta Tierra, todos los seres vivos, nuestros pensamientos y sentimientos, todo es consecuencia de un intrincado juego de átomos, partículas subatómicas, campos cuánticos y, sobre todo, de información.
A veces nos cuesta asumir y comprender muchos de los secretos del universo que ha desvelado la nueva física. Pero nos pone los pies en el suelo de la realidad el constatar que casi todos los desarrollos tecnológicos, desde la energía nuclear, bombas atómicas, toda la informática, los satélites artificiales, los modernos métodos diagnósticos y terapéuticos de la medicina, el GPS para no perdernos con el coche, hasta el mecanismo que abre las puertas de los establecimientos comerciales con nuestra sola presencia, o enciende el gas con un clic, todo ello es consecuencia de esos alocados e increíbles descubrimientos físicos. En todos los casos, la información desempeña un papel esencial. ¿Por qué hemos de creer en esos logros tecnológicos que nos facilitan la vida (o nos la quitan) con tanta eficacia y no en el concepto de la información como sustancia fundamental del universo, cuando ambos surgen de las mismas ecuaciones y experimentos?
¿Qué tienen en común los códigos que utilizamos en todas las comunicaciones y el código genético de una molécula de ADN? ¿Cómo se relacionan las leyes de la probabilidad y de la termodinámica con la comunicación en todas sus formas? ¿Por qué es tan importante la entropía de una partitura, un texto o una conversación telefónica? La respuesta a todas estas preguntas está en la información, una magnitud física que es capaz de relacionar entre sí todo lo que existe en el universo.
Partículas subatómicas, átomos, moléculas, células, órganos, seres vivos completos, grupos de organismos, corporaciones, naciones, organizaciones supranacionales, planetas, constelaciones, universo, todos procesan materia, energía e información. Y todo está relacionado entre sí.
A lo largo de este libro voy a intentar presentarles todas las evidencias a nuestro alcance que muestran a la información como el origen y el manual de instrucciones para el correcto funcionamiento integrado de todos los elementos que conforman el universo y la vida.
Según los físicos, en el principio fue la información. Es curioso que en este punto coinciden los más modernos conceptos de física cuántica y la más antigua tradición religiosa. San Juan de Patmos comienza su evangelio con el versículo «En el principio era el Verbo». El verbo significa la palabra y la palabra es información. En cierto sentido podríamos decir que la traducción de «En el principio era el Verbo» de Juan el evangelista es el It from bit de Juan (John) el físico.
¿Cómo surgió el universo y, por tanto, la información? La corriente actual de conocimiento permite suponer que el azar o un ser omnipotente desencadenó hace trece mil millones de años la serie de acontecimientos secuenciales que permitieron la transformación de una minúscula mota de información, situada en medio de la nada absoluta, en el universo y en la vida que lo habita. Los astrofísicos suponen que, en el primer instante de existencia del universo, en la primera trimillonésima de trimillonésima de segundo, por debajo de lo que se llama el tiempo de Planck, la información comenzó a transformarse en energía, en materia, en tiempo y en espacio. El entramado cuántico de campos y partículas dio origen a los átomos, moléculas y todos los astros y demás formaciones siderales que nos muestran los potentes instrumentos astronómicos.
Desde el principio de todo, la información ha buscado la manera de evolucionar hacia formas más complejas y eficientes de almacenamiento y procesamiento y a aumentar el acervo total de información del universo. Es como si la información, el principio, el origen de todo, se resistiera a desaparecer en la vorágine del obligado caos termodinámico.
La hipótesis que sustenta este libro, basada en el trabajo de numerosos científicos de enorme relieve, es que el universo ha creado anomalías localizadas donde, en violación aparente de las leyes de la física, se producen incrementos efímeros en la acumulación y procesamiento de información. Es como esos remolinos que se forman en los ríos y que lanzan, contracorriente, una ramita que flota en el agua, a pesar de que todo el río continúa su inexorable viaje hacia el mar.
Se deben haber realizado numerosos intentos por todo el universo con este propósito. Este esfuerzo, en las condiciones que concurrieron en el planeta Tierra dio origen a la vida y al ser humano. Los seres vivos somos entidades creadoras de información. Es seguro que en otros lugares de este o de otros universos hayan florecido otros proyectos evolutivos de acumulaciones locales de información con características muy diferentes a las nuestras. Pero hasta ahora solo se han detectado dos de estas anomalías (efímeros remolinos) locales de incremento de la información: los agujeros negros y la vida. Los agujeros negros están distribuidos por todo el universo. Y desde el punto de vista de la información es muy probable que también existan otras formas de vida, procesadoras de información, en otros planetas de otros sistemas solares.
Hay quien propone que el universo favoreció el desarrollo de la vida en general y de la humanidad en particular como quien siembra y alienta un semillero inagotable de unidades de información (desde un virus a una persona, pasando por millones de alternativas intermedias). Imaginen la cantidad de seres vivos (unidades creadoras y procesadoras de información) que han vivido desde hace tres mil millones de años que existe la vida sobre el planeta. Y los muchos miles de millones de seres humanos que viven o han vivido. La vida, sobre otras consideraciones, es un proceso continuo de creación, procesamiento y almacenamiento de información que comienza cuando se fecunda el óvulo y culmina con la muerte, cuando el ser vivo riega con la información contenida en sus propias moléculas todo el entorno.
Estos miles de millones de seres que viven o han vivido representarían una enorme masa de información. ¿Es posible que, como algunos sugieren, una de las misiones de los seres vivos sea la de contribuir al acerbo general de información del universo?
Voy a usar un símil. Quizá lo consideren inadecuado, pero es didáctico. Nuestro aparato digestivo está poblado por miles de millones de bacterias. Cada bacteria del colon no sabe qué hace allí, no sabe qué sentido tiene que viva en aquel lugar oscuro y lleno de residuos y excrementos a medio procesar. Pero, independientemente de la opinión de esa bacteria, su papel es muy importante para mantener la salud y la felicidad del cuerpo en el que habita durante un breve lapso. Quizá nosotros seamos como la microbiota del universo: vivimos una vida breve en un lugar lleno de problemas, suciedades de todo tipo y de dolor. No sabemos cuál es nuestra función, cuál es el sentido de nuestra existencia en este mundo contaminado y hostil. Pero es posible que nuestro papel sea el de contribuir al equilibrio informativo y a aumentar el nivel global de información del organismo que nos alberga, es decir, de todo el universo.
El universo tendrá una muerte térmica inevitable, pero puede tener una supervivencia informativa. Y a ello podremos contribuir los seres vivos en general y los seres humanos, con nuestra consciencia y nuestras habilidades tecnológicas, en particular. Esa podría ser una misión fundamental de nuestra vida. La vida sería una de las alternativas del universo para evitar la pérdida de información.
A lo largo de las páginas que siguen se van a presentar los conceptos que sostienen la importancia de la información como sustancia fundamental del universo y de la vida. No podemos comprender qué hacemos aquí y cuál podría ser la razón de nuestra existencia si no consideramos todos los elementos del problema: el escenario y la trama que constituyen la representación de nuestra vida, el universo, y los componentes fundamentales que mantienen y hacen funcionar todo: energía, materia, espacio, tiempo y, sobre todo, información.
Como suelo hacer con cada libro que escribo, yo solo les voy a exponer de la mejor manera que sepa, la situación actual de todo lo referente a la información, al universo y a la vida. En ningún caso voy a tomar partido por una determinada opinión o hipótesis. No se trata de escurrir el bulto o evitar que me frían a mensajes de protesta desde esa implacable autoridad crítica que es internet. Solo pretendo que cada cual realice sus propias valoraciones y extraiga sus conclusiones personales.
La física nos enseña que la información es una magnitud que opera a nivel de campos, partículas, átomos y moléculas. Ejerce sus acciones en ese misterioso mundo de lo sumamente pequeño, en esa especie de país de las maravillas donde reina la física cuántica. Pero sus efectos los percibimos en nuestro mundo macroscópico newtoniano en el que habitamos y en el que transcurre nuestra vida.
Su unidad es el bit. Repasaremos la fascinante historia del bit y a través de qué sorprendentes caminos hemos llegado a descubrir que cualquier tipo de información, sobre cualquier cosa, puede ser expresada, almacenada y procesada mediante un sistema de dos alternativas: uno y cero, sí y no, on y off, abierto y cerrado, deformado y no deformado, punto y raya, etc.
¿Cómo hemos llegado a averiguar que la clave para procesar cualquier tipo de información es disponer de dos estados opuestos capaces de generar una diferencia?
Durante casi tres mil años la única forma de codificar y transmitir la información con eficacia fue a través de la palabra, la escritura, los dibujos y los grabados. Toda la información que iba generando la humanidad (relatos, poemas, preceptos religiosos, leyes de los estados, pensamientos filosóficos, teorías científicas y médicas), se codificaba en palabras y dibujos registrados y almacenados en libros elaborados con distintos materiales y con distintos formatos de escritura y de encuadernación. También se grababa la información en edificaciones y en diversas construcciones líticas. Mediante estos procedimientos se mantuvo la transmisión de la información, sin apenas cambios, hasta hace algo más de doscientos años.
En el siglo XVIII se inició la Revolución Industrial. Este fue un proceso de profundas transformaciones económicas, sociales, culturales y tecnológicas que se desarrolló entre 1760 y 1840, y tuvo su origen en Inglaterra. La Revolución Industrial marcó un antes y un después en la historia de la humanidad. Especialmente porque su impacto se extendió a todos los ámbitos de la sociedad. Significó la creación de innovaciones tecnológicas y científicas que supusieron una ruptura con las estructuras socioeconómicas existentes hasta ese momento.
Este vendaval de cambios afectó también a la manera en cómo los seres humanos manejaban la información. La Revolución Industrial produjo un cambio drástico en la codificación de la información que tuvo una repercusión comparable a la del invento de la escritura alfabética, cuatro mil años antes. Y lo curioso es que tal proeza sucedió en el seno de una actividad industrial que aparentemente no tenía nada que ver con la información: en el seno de la industria textil de la seda en Lyon, a finales del siglo XVIII.
En Lyon se producían los mejores brocados del mundo, telas de sedas entretejidas con hilos de oro y plata que representaban artísticos y complicados dibujos de flores, animales, personas o figuras geométricas. Esos bordados requerían un lento y penoso esfuerzo de muchas horas y de varias bordadoras trabajando a la vez para trasladar a la tela la información contenida en los dibujos diseñados por los artistas.
Joseph Marie Jacquard, tejedor y comerciante francés, tuvo una idea genial para facilitar el trabajo del bordado. Desarrolló un procedimiento que permitía realizar los complicados brocados de una manera rápida y con una gran fidelidad con respecto al patrón. Inventó un telar automático que patentó en 1804.
Se trataba del mecanismo más complejo jamás construido por el ser humano hasta entonces. Tenía un «hardware» que era la máquina tejedora y que podía ser programada mediante un «software» para ejecutar por sí sola cualquier patrón, cualquier dibujo que se pudiera imaginar, en un enorme rango de diseños. La idea genial que se le ocurrió a Jacquard, el truco de ingenio prodigioso fue el de almacenar la información compleja de cada diseño de brocado en perforaciones elaboradas en cartones. Estos cartones perforados encerraban en la distribución de los agujeros la esencia informativa del diseño que se deseaba bordar, por complejo que este fuese. Es decir, la información del dibujo se codificaba en la secuencia de agujeros de las tarjetas. El artilugio funcionaba de tal manera que las perforaciones en las tarjetas de cartón permitían el paso de las agujas que movían los hilos, antes del paso de la lanzadera. La secuencia de tarjetas formaba un bucle cerrado para permitir la repetición del dibujo las veces que fuera necesario. De esta forma cualquier operario, casi sin experiencia, podía elaborar diseños complejos. Hay imágenes en internet de la máquina de Jacquard.
Jacquard no solo revolucionó la industria de la seda, sino que dio origen a algo más profundo, más universal: la segunda revolución en la codificación de la información, después de la escritura. La genialidad de Jacquard fue el demostrar que solo se necesitaban dos símbolos, agujero o no agujero, para representar cualquier tipo de dibujo, por complejo que fuera. Por primera vez en miles de años se había inventado un modo más simple y eficaz de almacenar y transmitir la información: la tarjeta perforada. Este invento tuvo una enorme repercusión y difusión en otros ámbitos industriales y artísticos. Fue la base de la proliferación de pianos automáticos, organillos y figuritas de bailarinas que danzaban al son de una música interpretada por un pequeño cilindro que se ponía en marcha al abrir la caja. Cualquier obra musical se podía codificar en rodillos perforados o con pinchos, que permitían al dispositivo mecánico interpretar automáticamente la melodía codificada en lenguaje binario.
A partir de ese momento cualquier información se podía representar sin necesidad de recurrir a los veintitantos signos alfabéticos; solo se necesitaban dos símbolos: un agujero o un espacio de papel sin agujero. Unas simples tarjetas perforadas podían captar la esencia de algo mucho más complejo mediante un par de símbolos sencillos y con ello se podía captar la información de cualquier cosa que existiese en todo el universo.
Este sistema de almacenar la información en tarjetas perforadas persistió hasta casi finales del siglo XX. Recuerdo, por ejemplo, que hasta los años setenta la mayor parte de los ordenadores que se usaban para usos múltiples en muchas universidades funcionaban mediante tarjetas perforadas. En mi universidad de Extremadura existía el personal que se encargaba de traducir a perforaciones las instrucciones que le daban los profesores y que contenían los cálculos complejos de sus investigaciones. Esas tarjetas perforadas se introducían en un enorme ordenador que realizaba los complejos cálculos. Por cierto, aquella máquina que ocupaba toda una habitación tenía menos capacidad informática que el ordenador de mesa que estoy usando para escribir estas líneas.
Había nacido una idea que revolucionaría el mundo: el concepto de código binario, que solo necesitaba dos estados (agujero o no agujero, pincho o no pincho) para almacenar y procesar cualquier tipo de información.
Desde los primeros pasos de la humanidad la forma de transmitir la información a distancia se había caracterizado por su lentitud. La información que se quería transmitir se la confiaba de viva voz a un mensajero o la simbolizaban sobre algún objeto como una joya, un colmillo de animal o una concha. También podía la información escribirse en algún formato de piedra, barro, papiro o papel que era transportado por alguien a la carrera, al trote de un caballo, en un carruaje o navegando por el mar. La información se materializaba en un mensaje y la velocidad a la que se podía enviar la información solo dependía de lo rápido que se pudiera transportar la materia. Y para aquella época en la que el mundo comenzaba a ser enorme, la transmisión de información por ese medio era muy lenta.
En el siglo XIX comenzó a difundirse el estudio de la electricidad. Pronto muchos se dieron cuenta de que la electricidad podía ser un medio muy eficaz para trasmitir mensajes a gran velocidad y a lo largo de enormes distancias. Es curioso que esta idea se afianzó gracias al experimento realizado por un clérigo, Jean Antoine Nollet. Este fue un renombrado físico francés que hizo varios experimentos con electricidad y, además, descubrió la ósmosis. Como diácono en la Iglesia católica, también fue conocido como Abbé Nollet. Lo que nos interesa aquí fue el experimento que realizó en 1746 con la electricidad. Reunió a doscientos monjes de un monasterio en un círculo de kilómetro y medio de longitud y los unió mediante un cable metálico que conectó a un generador de corriente eléctrica. Así verificó que la electricidad se transmitía de manera instantánea, al comprobar lo poco que tardaban en producirse los inesperados y molestos calambrazos a lo largo de la fila de monjes.
A partir de ahí se realizaron numerosos experimentos e intentos de usar la electricidad para transmitir información con rapidez y a largas distancias. Solo se necesitaba un cable metálico sostenido por postes. El problema era cómo crear una señal simple con la que se pudieran codificar y enviar mensajes complejos y que funcionara mediante las reglas que imponía la física de la electricidad. Se hicieron numerosos intentos. En algunos museos y en fotos en internet se pueden observar los extraños e imaginativos dispositivos que se ensayaron con tal propósito. Pero ninguno satisfacía las expectativas que se buscaban.
La solución llegó de la mano de un pintor estadounidense, Samuel Morse, que nada tenía que ver ni con la información ni con la electricidad. En 1836 regresaba en barco a su país desde Europa. Para entretener tantas horas de aburrida navegación, Morse participó en los coloquios y debates que organizaban, para pasar el rato, unos pasajeros interesados por la novedosa ciencia del electromagnetismo.
Samuel Morse aprendió mucho acerca de la electricidad, hasta el punto de dar pie al nacimiento de una gran idea. En cuanto regresó a su casa decidió llevarla a la práctica con la colaboración de su colega, el maquinista e inventor estadounidense Alfred Vail. Juntos desarrollaron un método sencillo para codificar la información y un aparato que podía mandar mensajes rápidos y claros a través de un cable. Usaron un código binario parecido al usado por Jacquard en sus telares. En este caso no se trataba de agujero o no agujero; optaron por un código que consistía en una conexión eléctrica breve, un punto, y una conexión más larga, una raya. Con este código binario se podía escribir cualquier mensaje, por abstracto que fuera su contenido. El mensaje se podía enviar de manera sencilla mediante un dispositivo que patentaron con el nombre de telégrafo.
En pocos años se pudo transmitir todo tipo de información a una gran velocidad. Se podían escribir textos enteros mediante un sistema binario de puntos y rayas. Recuerden la novela de Julio Verne, Miguel Strogoff. Toda la trama se basa en la necesidad de enviar un mensajero de una punta a otra de Rusia debido a la interrupción de la línea del telégrafo a causa de la guerra.
A finales del siglo XIX la gran actividad industrial, las grandes operaciones comerciales, incluidas las exportaciones e importaciones a países lejanos, el control del tráfico de los numerosos navíos y sus cargamentos, las operaciones bancarias y el desarrollo de actividades científicas cada vez más complejas exigían la realización de numerosos cálculos para poder llevar al día y con exactitud la contabilidad de los negocios y resolver los complejos resultados científicos.
De esta delicada misión se ocupaban unas personas especialmente dotadas para el cálculo y las operaciones aritméticas que contrataban las empresas, las universidades y las instituciones gubernamentales. Se las conocía con el nombre de «Human Computers o Computadoras Humanas»; contables se diría en español. Estas computadoras humanas desempeñaron un papel esencial, sobre todo durante las dos guerras mundiales. Eran en su mayor parte mujeres, con estudios superiores en ciencias o en contabilidad y dotadas de una enorme capacidad para el cálculo. Algunas empresas y centros de investigación disponían de una numerosa plantilla de estas laboriosas computadoras.
Científicos e inventores trataban de encontrar máquinas que pudieran suplir la función de estas computadoras humanas. Pero todos los proyectos no superaban en eficacia a la de las propias personas. Quien lo logró fue un joven inglés, Alan Mathison Turing, a quien se le considera el fundador de la moderna informática y el constructor del primer computador. Pero su corta vida no fue un sendero de rosas.
Matemático, informático, criptógrafo y filósofo, Alan Mathison Turing nació en Londres en 1912. Hijo de Ethel Sara Stoney y de Julius Mathison Turing, miembro del cuerpo de funcionarios británicos en la India. En 1926, ingresó en el internado de Sherborne en Dorset y luego cursó estudios en la Universidad de Cambridge.
Alan Turing se preguntó si las tareas de las computadoras humanas las podría realizar una máquina cuya única función sería la de manipular y procesar información numérica. Una máquina que funcionaría mediante símbolos abstractos.
Turing, con 24 años, fundó la lógica matemática. Comprendió que ciertos procesos matemáticos podrían ser resueltos solo siguiendo unas reglas simples, algo parecido a como operaban los cerebros de las computadoras humanas. La clave residía en trasladar las instrucciones de cálculo a un lenguaje comprensible por las máquinas. Hizo importantes contribuciones matemáticas a la teoría de la computación; a destacar el trabajo publicado en 1936 en Proceedings of the London Mathematical Society, con el título de «On computable numbers» (Sobre los números computables).
Con estos estudios contribuyó a la lógica matemática al introducir el concepto teórico de un dispositivo de cálculo que hoy se conoce como la máquina de Turing, y que es una construcción intelectual que no se corresponde con ningún aparato real, a pesar de su nombre. Además, amplió su trabajo matemático con el estudio de la inteligencia artificial y los fenómenos de computación en seres vivos.
Durante la Segunda Guerra Mundial Turing se incorporó al equipo de criptoanalistas de la escuela gubernamental de códigos y cifrados de Bletchley Park, donde trabajó como criptógrafo para el Foreign Office británico. Se afanó con ahínco y patriotismo para desencriptar los códigos nazis, particularmente los de la máquina Enigma. Su contribución a la victoria sobre Hitler fue muy valorada. Un descubrimiento que acortaría la Segunda Guerra Mundial (1939-1945) pero del que los británicos se enterarían tarde porque los detalles fueron mantenidos en secreto hasta 1974, veinte años después de la muerte de Turing.
Tras la guerra, trabajó en el Laboratorio Nacional de Física, donde diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y contribuyó a sentar las bases de la inteligencia artificial. Turing fue un inteligente visionario que fundó las bases y prendió la mecha de la Revolución Informática. En 1949 se convirtió en subdirector del Laboratorio de Máquinas de Computación de la Universidad Victoria de Mánchester, donde trabajó en el software para una de las primeras computadoras con programas almacenados: la Manchester Mark.
En 1952 acudió a la policía para denunciar un robo y durante el procedimiento policial salió a relucir su homosexualidad, por lo que fue acusado de indecencia grave y perversión sexual, considerados delitos graves en el Reino Unido por aquel entonces. La sentencia por homosexualidad daba a elegir al condenado entre dos opciones: ingresar en prisión o someterse a la castración química. Touring optó por esto último, lo que le produjo cambios físicos y psíquicos que afectaron a su trabajo y a su vida.
Alan Mathison Turing murió en Wilmslow, el 7 de junio de 1954 tras ingerir una manzana a la que había inyectado cianuro del que usaba en sus estudios de laboratorio. Un homenaje a su memoria y a su trágica muerte es el logo y el nombre de una de las principales compañías de ordenadores personales: Apple (manzana).
Con mucho retraso, Gran Bretaña saldó la deuda histórica con Turing en 2013, cuando la reina Isabel II concedió el perdón real al genial científico sesenta años después de su condena por homosexualidad.
A partir de Turing la humanidad ya podía obtener, almacenar, procesar y utilizar información mediante máquinas cada vez más eficaces que trabajaban en códigos binarios. Había comenzado la Revolución Informática. Pero la información carecía de regulación física o matemática. Era algo que estaba ahí, desde siempre. Que era muy útil, que manejarla con eficacia proporcionaba beneficios a la sociedad. Pero aún era un parámetro, en cierta manera, fuera de control, sin leyes que lo regulasen, sin ecuaciones matemáticas que lo determinasen con precisión. Acabar con esta indeterminación fue misión de Claude M. Shannon, un matemático estadounidense que trabajaba en las oficinas de la compañía Bell y tenía por tarea intentar cuantificar la información que la compañía transmitía a través de sus aparatos; fundamentalmente el teléfono.
En 1948, Claude Elwood Shannon escribió su célebre publicación «A Mathematical Theory of Information». En ese artículo, esencialmente sentó las bases matemáticas de la Era Digital. Su teoría de la información es la cuantificación matemática de la comunicación para describir cómo se transmite y recibe la información, en lenguaje humano. Su trabajo marcó un hito en el devenir del concepto de información, de su utilización práctica y de su interés científico. Y se ha considerado una de las publicaciones científicas más importantes del siglo XX.
Shannon fue la primera persona que utilizó la palabra bit. Lo hizo en su famosa publicación. Shannon atribuyó el origen de la palabra bit a John W. Tukey, el cual había escrito un artículo en la revista de Bell, en 1947, en el que contraía la frase «binary information digit» a un simple «bit». Desde Turing y Shannon, la información se mide en bits; es la unidad del sistema digital binario, esto es, la unidad básica de información. El bit solo tiene dos valores posibles 1 y 0. La información se convirtió en algo tangible y susceptible de cuantificación. En algo real y manejable.
El poder del bit reside en su universalidad. Todos los sistemas físicos y biológicos del universo, y todos los dispositivos capaces de procesar la información lo hacen mediante bits. Después de Shannon, el bit se constituyó en el idioma común de toda la información, ya fuera artificial (música, palabras, sonido, texto, imágenes, instrucciones para aterrizar un avión, o de operar un corazón) o natural (universo, materia, vida). Y la información de cualquier tipo se puede transmitir mediante un sistema que sea capaz de diferenciar los dos estados que constituyen cualquier código binario (telar de brocados, telégrafo o computadora).
Con los trabajos de Shannon y de Turing y sus conceptos innovadores la información entró de lleno en la ciencia desde un enfoque práctico, como un asunto de ingeniería de las comunicaciones y de la ciencia de la computación. Ahora se podían abordar los problemas de la asignación de recursos de información, la cuantificación y medida de la información y sus aplicaciones y la transmisión de información. Estos conceptos comenzaron inmediatamente a aplicarse en la industria, la economía, la sociología, el entretenimiento, o en la escritura de un libro como este.
Claude Shannon sentó las bases científicas de la información basándose en dos ramas de la física que estaban adquiriendo una gran importancia cuando él andaba enfrascado en resolver los problemas que le había encargado la empresa Bell: la estadística física y la termodinámica. Estas dos puertas le permitieron el acceso a la ciencia de la comunicación.
Vamos a analizarlas ambas, pues son de gran importancia para comprender el concepto de información y su importancia para el universo y la vida.
La palabra estadística procede del latín estatus