Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
2029: año en el que la inteligencia artificial no podrá distinguirse de la humana. Este es el horizonte hacia el que mira "Cómo crear una mente". Siguiendo la estela de "La Singularidad está cerca", su libro anterior, el autor recorre la curva del crecimiento exponencial de la tecnología hasta el momento en el que la inteligencia de los ordenadores alcanza a la del hombre. ¿Qué pasará entonces? Si la creación de máquinas cada vez más potentes es una capacidad humana, entonces las máquinas también heredarán esta capacidad, pero con todas las ventajas que conllevan los sustratos no biológicos. Esto dará lugar a posteriores generaciones de máquinas cada vez más potentes que acompañarán al hombre hacia la singularidad tecnológica. Ray Kurzweil explica el itinerario que el hombre está siguiendo para lograr este objetivo, así como la manera precisa en la que está llevando a cabo esta transformación. Según el autor, el futuro inteligente de las máquinas converge con el de los humanos, ya que seremos capaces de incorporar dicha inteligencia a nuestros propios cuerpos. ¿Cómo será el mundo en este escenario? Descúbralo con la lectura de este apasionante libro.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 587
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
RAY KURZWEIL
El secreto del pensamiento humano
Con prólogode José Luis Cordeiro
Traducido del ingléspor Carlos García Hernández
Copyright © Lola Books GbR, Berlin 2013www.lolabooks.euCopyright © de la traducción: Carlos García Hernández
Queda totalmente prohibida cualquier forma de reproducción, distribución, comunicación pública o transformación total o parcial de esta obra sin el permiso escrito de los titulares de explotación.
Título original:How to create a mind: the secret of human thought revealedCopyright © Ray Kurzweil, 2012Publicado con el consentimiento de Ray KurzweilTodos los derechos reservados
Diseño de cubierta: Christine WenningCopyright © Christine WenningImpreso en Clausen & Bosse, LeckISBN 978-3-944203-05-8eISBN 978-3-944203-17-1
Primera edición 2013
Ray Kurzweil es probablemente el futurista más influyente del mundo en estos momentos. Pero mucho más allá de futurista, Ray es ingeniero, inventor, empresario, músico, educador y escritor. Todos sus libros sobre tecnología han sido best-sellers, comenzando con The Age of Intelligent Machines publicado en 1990, The Age of Spiritual Machines en 1999, y The Singularity is Near en 2005. Ray lanzó su nuevo libro How to Create a Mind en diciembre de 2012, y la presente edición en español Cómo crear una mente en octubre de 2013. Cada libro ha sido impactante en su momento y todos han tenido importantes predicciones sobre grandes eventos y posibilidades a futuro.
Ray tiene una historia personal impresionante, llena de logros, invenciones y visiones sobre el futuro. Sus invenciones van desde diferentes tipos de escáneres y sintetizadores musicales hasta máquinas de lectura para ciegos y aparatos para reconocimiento de voz. Ray cuenta que desde que tenía 5 años quería ser inventor, y en 1998 fue condecorado como el Inventor del Año por el Instituto Tecnológico de Massachusetts (MIT), su alma mater. Ray ha recibido honores de tres presidentes de los Estados Unidos de América, una veintena de doctorados Honoris causa de diversas universidades alrededor del mundo, la Medalla Nacional de Tecnología e Innovación de Estados Unidos y su nombre está en el Salón de la Fama de Inventores de Estados Unidos (National Inventors Hall of Fame). Para ayudar a preparar a las nuevas generaciones, Ray fundó Singularity University junto con Peter Diamandis en el Parque Tecnológico de NASA Ames en el Valle del Silicio (el famoso Silicon Valley de California). Por si fuera poco, después de publicar How to Create a Mind, Ray ha sido nombrado Vicepresidente de Ingeniería en Google, donde se enfoca en el procesamiento de lenguajes naturales, combinando lingüística computacional e inteligencia artificial.
He seguido las ideas de Ray durante tres décadas y tengo el placer de conocerle personalmente desde hace casi dos décadas. En los últimos 5 años he tenido el privilegio de trabajar con él como uno de los asesores y profesores fundadores de Singularity University, y también colaboré en la revisión de sus predicciones para el año 2009. De hecho, la trayectoria histórica de sus predicciones es impresionante, con una precisión cercana al 90%. Entre sus predicciones más famosas están la caída de la Unión Soviética, la aparición de Internet y el desarrollo de un ordenador o computador capaz de ganar al campeón mundial de ajedrez. En este último caso, Ray fue incluso conservador pues predijo que esto ocurriría en 1998; cuando Deep Blue de IBM ganó a Garry Kasparov en 1997.
How to Create a Mind, el más reciente best-seller de Ray en la lista de The New York Times, explica los impresionantes avances de la inteligencia artificial y cómo dentro de unos pocos años podremos terminar la ingeniería inversa del cerebro humano. Ray sostiene que para el año 2029 una inteligencia artificial pasará la llamada Prueba o Test de Turing, basado en la idea del científico inglés Alan Turing para saber si un humano es capaz de diferenciar si está escribiendo o hablando con otro humano o con una máquina. Ray incluso explica que la inteligencia artificial tendrá en realidad que bajar su nivel para no ser fácilmente identificada como superior a la inteligencia humana. Eventualmente, si una máquina se comporta en todos los aspectos como inteligente, incluso más inteligente que los humanos, entonces debe ser inteligente.
Ray comienza su nuevo libro con una serie de experimentos mentales para comprender mejor cómo pensamos los humanos. Luego presenta un modelo del neocórtex y plantea su Teoría de la Mente basada en el Reconocimiento de Patrones (PRTM, del inglés Pattern Recognition Theory of Mind). Ray continúa con un análisis de las diferentes partes biológicas del cerebro y su evolución, para entonces discutir cómo sería un neocórtex digital, creado gracias al crecimiento acelerado de la tecnología.
Cómo crear una mente defiende que la mente es una “propiedad emergente” del cerebro, de manera que la creación de cerebros digitales resultará en la creación de mentes digitales. De hecho, el cerebro, actual sustrato biológico de la mente humana, puede ser sustancialmente mejorado gracias a sustratos no biológicos cuidadosamente diseñados y mucho más avanzados. Como diría el gran futurista inglés Sir Arthur C. Clarke, los humanos somos simplemente bípedos con un sustrato basado en carbono (en inglés: carbon-based bipeds). Lo importante no es el sustrato, biológico o no, sino la mente, y las mentes aumentadas gracias a las nuevas tecnologías superarán a las actuales mentes humanas no mejoradas. Ray no sólo considera que la mente es una consecuencia directa del cerebro, sino que además las inteligencias artificiales tendrán conciencia, libre albedrío y hasta identidad propia.Este nuevo libro de Ray es quizá su mejor y más importante obra, como así fue referido por el pionero de la inteligencia artificial Marvin Minsky del MIT, ya que trata específicamente sobre el cerebro humano, que es la estructura más compleja del universo conocido. Tal vez mañana aparezca algún extraterrestre con un cerebro más avanzado que el nuestro, pero hasta entonces el cerebro humano es la estructura más compleja que conocemos. De cualquier forma, el cerebro humano tampoco es tan complejo y en los próximos años podremos imitarlo, simularlo y superarlo con ingeniería inversa gracias a los avances científicos y las tecnologías exponenciales.
A pesar de la gran complejidad del cerebro humano, con sus cien mil millones de neuronas conectadas a través de billones y billones de sinapsis, Ray indica que su “objetivo con este libro no es en absoluto añadir una nueva cita a las millones que ya existen y que atestiguan lo complejo que es el cerebro, sino más bien impresionarle a usted con el poder de su simplicidad. Esto lo realizaré describiendo cómo un ingenioso mecanismo básico que se repite cientos de millones de veces y que sirve para reconocer, recordar y predecir un patrón es el responsable de la gran diversidad de nuestro pensamiento.”
Para quienes todavía no creen que una inteligencia menor pueda evolucionar hacia una inteligencia mayor, nosotros mismos somos la prueba de que sí es posible. Hace millones de años los humanos evolucionamos de ancestros simios menos inteligentes, los cuales a su vez evolucionaron de otros mamíferos primitivos todavía menos inteligentes (aunque inteligencia quizá no sea la palabra correcta en este sentido). Hasta ahora, nuestros cerebros biológicos han sido el resultado de la evolución biológica al azar, con resultados buenos y malos, aleatoriamente. En el futuro, los cerebros digitales que vamos a producir serán diseñados, y dichos cerebros artificiales no serán el resultado fortuito de la evolución biológica sino creaciones inteligentes gracias a nuestra evolución tecnológica.
En los pocos meses que han trascurrido desde que la edición inglesa de How to Create a Mind apareció en diciembre de 2012, dos proyectos trascendentales sobre el cerebro han comenzado. Por un lado está el Proyecto Cerebro Humano, un esfuerzo médico-científico y tecnológico financiado por la Unión Europea y dirigido por el científico surafricano Henry Makram desde la Escuela Politécnica Federal de Lausana, Suiza. Con un presupuesto de por lo menos mil millones de euros durante los próximos diez años, el Proyecto Cerebro Humano busca simular el cerebro con supercomputadores para reproducir tecnológicamente las características del cerebro humano. Por otro lado está la Iniciativa BRAIN (del inglés Brain Research through Advancing Innovative Neurotechnologies), anunciada por el presidente estadounidense Barack Obama con el objetivo de hacer un mapa de cada neurona del cerebro humano. La Iniciativa BRAIN está basada en el exitoso Proyecto Genoma Humano y se prevén inversiones de más de 300 millones de dólares al año durante toda una década.
Las investigaciones multimillonarias que están comenzando tanto con el Proyecto Cerebro Humano en Europa como con la Iniciativa BRAIN en Estados Unidos tendrán resultados impresionantes durante la próxima década. Por si fuera poco, Japón sigue con sus investigaciones avanzadas en el Instituto RIKEN del Cerebro, y China, Rusia y otros países también tienen programas importantes sobre el cerebro, neurociencia e inteligencia artificial. Grandes compañías tecnológicas como Amazon, Apple, Ericsson, Facebook, Google, IBM, Microsoft, Nokia, Samsung y Sony, por ejemplo, también tienen ya algunos productos y más proyectos en áreas similares. Además existen nuevos start-ups que igualmente están trabajando en aspectos fundamentales del cerebro y la inteligencia, tanto natural como artificial. Con todo este interés a nivel nacional e internacional, público y privado, para comprender y mejorar el cerebro humano, yo no tengo la menor duda de que vamos a descubrir cosas maravillosas en los próximos años.
Ray explica que su meta es “comprender de forma precisa cómo funciona el cerebro y luego utilizar el desvelamiento de dichos métodos para comprendernos mejor a nosotros mismos, así como para reparar el cerebro cuando sea necesario y (lo que es lo más importante para este libro) para crear máquinas cada vez más inteligentes.” Según Ray, continuaremos fusionándonos con nuestra tecnología en una civilización humano-máquina cada vez más avanzada.
Aunque algunas ideas puedan parecer ciencia ficción, es bueno recordar que muchas veces la ciencia ficción de hoy se convierte en la ciencia real de mañana. La ciencia continuamente abre nuevas puertas y oportunidades al conocimiento humano. De hecho, lo que antes parecía imposible, puede volverse realidad más tarde. Los primeros teléfonos fijos, los automóviles, los aviones, los antibióticos, los satélites artificiales, los ordenadores o computadores, Internet, los teléfonos móviles o celulares, todos parecían magia en su momento. Ahora, afortunadamente, cada uno de esos descubrimientos e invenciones son considerados normales por las nuevas generaciones. Efectivamente, a veces las ideas avanzan de la ciencia ficción hacia la ciencia real. Sir Arthur C. Clarke, un ingeniero que es más conocido como autor de ciencia ficción, escribió hace medio siglo sus famosas tres leyes del futuro:
1.Cuando un científico viejo y distinguido afirma que algo es posible, es casi seguro que está en lo correcto. Cuando afirma que algo es imposible, es muy probable que esté equivocado.
2.La única manera de descubrir los límites de lo posible es aventurarse más allá de ellos, hacia lo imposible.
3.Cualquier tecnología suficientemente avanzada no se diferencia de la magia.
En pocas palabras, lo que hoy puede parecer magia, pronto quizá podría ser realidad. Desde el punto de vista computacional, ya estamos comenzando a reproducir la complejidad del cerebro humano. De hecho, como estima Ray, es posible que una inteligencia artificial pase el Test de Turing en el año 2029 (aunque probablemente sea antes, como demostraron los rápidos avances de dos ordenadores o computadores de IBM: Deep Blue en 1997 y Watson en 2011). Entonces será imposible diferenciar entre una inteligencia artificial y una inteligencia humana. Poco después las inteligencias artificiales seguirán mejorando y superarán a las inteligencias humanas no modificadas. En el camino, la mayor parte de la humanidad seguirá utilizando la tecnología para aumentar sus capacidades, como hemos hecho hasta ahora (desde lentes hasta prótesis). Luego será posible subir todos nuestros conocimientos, recuerdos, experiencias, amores y hasta sentimientos a ordenadores o computadores (a Internet o a la “nube”) que incluso tendrán una memoria expandible y muy superior a la memoria humana actual. La memoria artificial además continuará mejorando y creciendo, al igual que la capacidad y la velocidad de procesamiento de la inteligencia artificial. Todo será parte de un proceso acelerado de mejora de la inteligencia humana gracias a la continua evolución tecnológica.
La humanidad apenas está comenzando el fascinante camino de la evolución biológica a la evolución tecnológica, una nueva evolución consciente e inteligente. Según explica Ray, un kilogramo de “computronio” tiene la capacidad teórica para procesar cerca de 5 × 1050 operaciones por segundo, comparado con un cerebro humano que puede procesar entre 1016 y 1019 operaciones por segundo (según diferentes estimaciones). De forma que todavía tenemos un potencial enorme por delante, de muchos órdenes de magnitud, para seguir aumentado la inteligencia humana y luego posthumana, pasando de nuestros cerebros bilógicos no mejorados a cerebros post-biológicos aumentados. Como concluye Ray: “nuestro destino es despertar al universo para luego decidir inteligentemente cuál es su futuro imbuyéndole de inteligencia humana en su forma no biológica.”
José Luis Cordeiro, MBA, PhD(www.cordeiro.org)
Director, Nodo Venezuela, The Millennium Project(www.Millennium-Project.org)
Profesor Fundador, Singularity University, NASA Ames, Silicon Valley, California(www.SingularityU.org)
Co-fundador, Asociación Transhumanista Iberoamericana(www.TransHumanismo.org)
Fundador, Sociedad Mundial del Futuro Venezuela(www.FuturoVenezuela.net)
A Leo Oscar Kurzweil.Te estás adentrando en un mundo extraordinario.
Me gustaría expresar mi gratitud a mi esposa Sonia por su amorosa paciencia durante las vicisitudes del proceso creativo, a mis hijos Ethan y Amy, a mi nuera Rebeca, a mi hermana Enid y a mi nieto Leo por su amor e inspiración.
También a mi madre Hannah por apoyar mis primeras ideas e inventos, lo cual me dio la libertad de poder experimentar a una edad temprana, y por mantener vivo a mi padre durante su larga enfermedad.
También a mi editor en Viking, Rick Kot, por su liderazgo y por su constante y perspicaz orientación, así como por ser un experto de la edición.
Gracias a Loretta Barrett, mi agente literario desde hace veinte años, por guiarme astuta y entusiásticamente.
A Aaron Kleiner, mi socio empresarial de toda la vida, por su denodada colaboración durante los últimos cuarenta años.
A Amara Angelica por su denodada y excepcional ayuda investigadora.
A Sarah Black por sus extraordinarias indicaciones en cuanto a la investigación y por sus ideas.
A Laksman Frank por sus excelentes ilustraciones.
A Sarah Reed por su entusiasta apoyo organizativo.
A Nanda Barker-Hook por su experta organización de mis compromisos públicos relacionados con este y otros temas.
A Amy Kurzweil por su orientación en el oficio de escribir.
A Cindy Mason por su ayuda investigadora y por sus ideas sobre la IA y la conexión cuerpo-mente.
A Dileep George por sus perspicaces ideas y por nuestras reveladoras discusiones por email y por otros medios.
A Martine Rothblatt por su dedicación a todas las tecnologías que expongo en este libro y por nuestras colaboraciones en el desarrollo de tecnologías en estas áreas.
Al equipo de KurzweilAI.net, que me ha proporcionado un importante apoyo investigador y logístico para llevar adelante este proyecto. El equipo incluye a: Aaron Kleiner, Amara Angelica, Bob Beal, Casey Beal, Celia Black-Brooks, Cindy Mason, Denise Scutellaro, Joan Walsh, Giulio Prisco, Ken Linde, Laksman Frank, Maria Ellis, Nanda Barker-Hook, Sandi Dube, Sarah Black, Sarah Brangan y Sarah Reed.
Gracias al entregado equipo de Viking Penguin por todo su atento buen hacer. El equipo de Viking Penguin incluye a: Clare Ferraro (presidente), Carolyn Coleburn (director publicitario), Yen Cheong y Langan Kingsley (publicistas), Nancy Sheppard (directora de márquetin), Bruce Giffords (editor de la producción), Kyle Davis (asistente editorial), Fabiana Van Arsdell (directora de producción), Roland Ottewell (editor de copias), Daniel Lagin (diseñador) y Julia Thomas (diseñadora de la cubierta).
Gracias a mis colegas de la Singularity University por sus ideas, entusiasmo y energía emprendedora.
A mis colegas que me han proporcionado inspiración para las ideas que aparecen en este volumen. Quiero incluir aquí a: Barry Ptolemy, Ben Goertzel, David Dalrymple, Dileep George, Felicia Ptolemy, Francis Ganong, George Gilder, Larry Janowitch, Laura Deming, Lloyd Watts, Martine Rothblatt, Marvin Minsky, Mickey Singer, Peter Diamandis, Raj Reddy, Terry Grossman, Tomaso Poggio y Vlad Sejnoha.
Gracias a mis lectores especializados, que incluyen a Ben Goertzel, Davis Gamez, Dean Kamen, Dileep George, Douglas Katz, Harry George, Lloyd Watts, Martine Rothblatt, Marvin Minsky, Paul Linsay, Rafael Reif, Raj Reddy, Randal Koene, Dr. Stephen Wolfram y Tomaso Poggio.
A mis lectores en general y de mi entorno cuyos nombres aparecen más arriba y finalmente gracias a todos los pensadores creativos del mundo que me inspiran cada día.
Cómo crear una mente
El cerebro— es más amplio que el cielo—
Ya que— puestos el uno al lado del otro—
El primero contiene al segundo
Con facilidad— y contigo incluido—
El cerebro es más profundo que el mar—
Ya que— comparando los azules—
El uno absorbe al otro—
Como las esponjas hacen con los cubos—
El Cerebro pesa lo mismo que Dios—
Ya que— comparados libra a libra—
Se diferenciarán— si acaso—
Como una sílaba de su sonido
—EMILY DICKINSON
Al tratarse del fenómeno más importante del universo, la inteligencia es capaz de transcender las limitaciones naturales y de transformar el mundo según su propia imagen. Bajo nuestro mando, la inteligencia nos ha permitido superar las restricciones de nuestra herencia genética y que al mismo tiempo nos transformáramos nosotros mismos durante el proceso. Somos la única especie capaz de hacer esto.
El relato de la inteligencia humana comienza con un universo que es capaz de codificar información. Este ha sido el factor que ha hecho posible que la evolución tenga lugar. Cómo el universo acabó siendo de la manera que es, es un relato interesante. El modelo estándar de la física tiene docenas de constantes que tienen que ser precisamente las que son. De otra manera los átomos no habrían sido posibles y no habría habido estrellas, ni planetas, ni cerebros, ni libros sobre el cerebro. El hecho de que las leyes de la física estén tan precisamente ajustadas como para permitir la evolución de la información es algo que parece increíblemente poco probable. Sin embargo, el principio antrópico nos dice que si no fuera así, no estaríamos preguntándonos sobre ello. Donde algunos ven una mano divina, otros ven un multiverso. En este multiverso es donde diferentes universos evolucionan y en donde los universos aburridos (los que no contienen información) se extinguen. Pero, independientemente de cómo nuestro universo acabó siendo como es, podemos empezar nuestro relato con un mundo basado en la información.
La historia del universo se desarrolla mediante niveles de abstracción creciente. Los átomos (especialmente los de carbono, ya que pueden crear estructuras ricas en información mediante enlaces en cuatro direcciones diferentes) formaron moléculas cada vez más complejas. El resultado fue que la física dio lugar a la química.
Mil millones de años después, surgió una molécula compleja llamada ADN que podía codificar con precisión largas cadenas de información y generar los organismos descritos mediante dichos “programas”. El resultado fue que la química dio lugar a la biología.
A un ritmo cada vez mayor, los organismos desarrollaron redes de comunicación y de decisión llamadas sistemas nerviosos que podían coordinar las cada vez más complejas partes de sus cuerpos, así como los comportamientos que facilitaban su supervivencia. Las neuronas, que componían los sistemas nerviosos, se juntaron en cerebros capaces de comportarse cada más vez inteligentemente. Así fue como la biología dio lugar a la neurología, ya que los cerebros se encontraban en la vanguardia del almacenamiento y manipulación de la información. De este modo pasamos de átomos a moléculas, de moléculas a ADN, y de ADN a cerebros. El siguiente paso fue exclusivamente humano.
El cerebro de los mamíferos posee una clara capacidad no encontrada en ninguna otra clase de animal: somos capaces de pensar jerárquicamente, de comprender una estructura compuesta de diferentes elementos ordenados según un patrón, de representar dicho ordenamiento mediante un símbolo y luego utilizar dicho símbolo como elemento de una configuración todavía más elaborada. Esta capacidad reside en una estructura cerebral llamada neocórtex. En los humanos, el neocórtex ha alcanzado un nivel de sofisticación y capacidad tal que estos patrones han merecido el nombre de ideas. Así, mediante un interminable proceso recursivo, somos capaces de construir ideas cada vez más complejas. A esta enorme matriz de ideas recursivamente unidas la llamamos conocimiento. Solo el homo sapiens posee una base de conocimientos que evoluciona, crece exponencialmente y es transmitida de generación en generación.
Nuestros cerebros dieron lugar a otro nivel de abstracción, ya que, además de la inteligencia de nuestros cerebros, contamos con otro factor determinante: un apéndice oponible (el pulgar) que nos permite manipular el medio y construir herramientas. Dichas herramientas representaron una nueva forma de evolución, y así la neurología dio lugar a la tecnología. Solo gracias a nuestras herramientas nuestra base de conocimientos ha podido crecer sin límite.
Nuestra primera invención fue el relato: el lenguaje hablado que nos permitió representar ideas mediante vocablos diferenciados. Con la posterior invención del lenguaje escrito, desarrollamos diferentes formas de simbolizar nuestras ideas. Así, mediante ideas recursivamente estructuradas, las librerías de lenguaje escrito aumentaron enormemente la capacidad de nuestros desprovistos cerebros para retener y expandir nuestra base de conocimientos.
Existe cierta controversia sobre si otras especies, tales como los chimpancés, poseen la capacidad de expresar ideas jerárquicas mediante el lenguaje. Los chimpancés son capaces de aprender un conjunto limitado de símbolos pertenecientes al lenguaje de signos, lo cual les permite comunicarse con sus instructores humanos. Sin embargo, es evidente que existen claros límites en cuanto a la complejidad de las estructuras del conocimiento con las que los chimpancés son capaces de manejarse. Las frases que pueden expresar se limitan a secuencias simples y específicas de sujeto-predicado, y no son capaces de lograr la indefinida expansión de la complejidad que caracteriza a los humanos. A modo de divertido ejemplo sobre la complejidad del lenguaje generado por los humanos, basta con leer una de las espectaculares frases de varias páginas escritas por Gabriel García Márquez en sus relatos o novelas. Su relato de seis páginas “El último viaje del buque fantasma” se compone de una sola frase y funciona bastante bien tanto en español como en la traducción inglesa (1).
La idea principal de mis tres libros anteriores sobre la tecnología (The Age of Intelligent Machines, escrito en la década de 1980 y publicado en 1989, The Age of Spiritual Machines, escrito entre mediados y finales de la década de 1990, y La Singularidad está cerca*, escrito a principios de la década de 2000 y publicado en 2005) es que cualquier proceso evolutivo sufre una aceleración intrínseca (debido a sus cada vez mayores niveles de abstracción) y que además la complejidad y capacidad de los productos nacidos de estos procesos crece exponencialmente. A este fenómeno le llamo ley de los rendimientos acelerados (LOAR)** y concierne tanto a la evolución biológica como a la tecnológica. El ejemplo más claro de la LOAR viene representado por el hecho de que el crecimiento exponencial de la capacidad y de la relación rendimiento/precio de las tecnologías de la información es extraordinariamente predecible. Por eso el proceso evolutivo de la tecnología desembocó inevitablemente en el ordenador, que a su vez ha supuesto una enorme expansión de nuestra base de conocimientos y ha permitido aumentar extraordinariamente la capacidad de comunicación entre las diferentes áreas de conocimiento. La propia web es un buen y poderoso ejemplo de la capacidad de un sistema jerárquico para abarcar una gran variedad de conocimientos y a la vez mantener su estructura intrínseca. En definitiva, podríamos afirmar que el mundo en sí es intrínsecamente jerárquico (los árboles contienen ramas, las ramas contienen hojas, las hojas contienen vetas. Los edificios contienen pisos, los pisos contienen habitaciones, las habitaciones contienen entradas, ventanas, paredes y suelos).
También hemos desarrollado herramientas que en estos momentos nos están permitiendo comprender nuestra propia biología en precisos términos informativos. Además, estamos aplicando sin demora la ingeniería inversa a los procesos de la información que subyacen tras la biología, incluyendo la biología de nuestros cerebros. En forma de genoma humano, ya estamos en posesión del código objeto de la vida, un logro que en sí fue un extraordinario ejemplo de crecimiento exponencial, ya que la cantidad de información genética que se secuencia en el mundo ha venido más o menos doblándose anualmente durante los últimos veinte años (2).
Por otra parte, ya tenemos la capacidad de simular en ordenadores la forma en la que las secuencias de pares de bases dieron lugar a secuencias de aminoácidos que a su vez se plegaron en proteínas tridimensionales a partir de las cuales se construye la biología. Asimismo, la complejidad de las proteínas para las cuales podemos realizar simulaciones sobre su manera de plegarse, ha aumentado constantemente a medida que los recursos informáticos han continuado creciendo exponencialmente (3). También podemos simular cómo las proteínas interactúan las unas con las otras siguiendo una intrincada danza tridimensional de fuerzas atómicas. Por tanto, nuestro creciente conocimiento de la biología es un factor importante que nos permite descubrir los secretos inteligentes que la evolución nos ha otorgado y los usos que se les puede dar a estos paradigmas inspirados en la biología a la hora de crear tecnologías cada vez más inteligentes.
En estos momentos, miles de científicos e ingenieros están llevando a cabo un gran proyecto. Su objetivo es comprender el mejor ejemplo que tenemos de un proceso inteligente: el cerebro humano. Así, podría decirse que se trata del mayor esfuerzo en la historia de la civilización hombre-máquina. En La Singularidad está cerca defiendo que una consecuencia de la ley de los rendimientos acelerados es que seguramente no existan otras especies inteligentes. Un resumen de este argumento es el siguiente: dado el relativamente corto espacio de tiempo que dista entre el momento en el que una civilización crea tecnología primitiva y el dominio tecnológico que le permite trascender los límites de su planeta (4) (téngase en cuenta que en 1850 la manera más rápida de enviar información a nivel nacional era el Pony Express), si existieran otras especies inteligentes ya las habríamos detectado. Desde esta perspectiva, la aplicación de la ingeniería inversa al cerebro humano puede ser considerada como el proyecto más importante del universo.
El objetivo del proyecto es comprender de forma precisa cómo funciona el cerebro y luego utilizar el desvelamiento de dichos métodos para comprendernos mejor a nosotros mismos, así como para reparar el cerebro cuando sea necesario y (lo que es lo más importante para este libro) para crear máquinas cada vez más inteligentes. Téngase en cuenta que precisamente a lo que se dedica la ingeniería es a amplificar fenómenos naturales. A modo de ejemplo, considérese el fenómeno tan sutil que describe el principio de Bernoulli, que afirma que la presión del aire sobre una superficie curva en movimiento es ligeramente menor que sobre una superficie plana en movimiento. La explicación matemática de cómo el principio de Bernoulli hace que las alas se eleven es algo en lo que todavía los científicos no se han puesto de acuerdo, y sin embargo la ingeniería ha hecho suyo este delicado conocimiento, ha estudiado sus capacidades y ha dado lugar ni más ni menos que al mundo de la aviación.
Este libro presenta la tesis defendida por lo que yo llamo la teoría de la mente basada en el reconocimiento de patrones (PRTM)*, la cual (según mi opinión) describe el algoritmo básico del neocórtex (la región del cerebro responsable de la percepción, la memoria y el pensamiento crítico). En los siguientes capítulos describo cómo recientes investigaciones en neurociencia, así como nuestros propios experimentos mentales, nos llevan a la irrefutable conclusión de que la utilización de este método abarca toda la extensión del neocórtex y de que este hace un uso sistemático de aquel. Asimismo, la combinación de la LOAR con la PRTM implica que seremos capaces de desarrollar diseños con base en estos principios que nos permitirán aumentar enormemente las capacidades de nuestra propia inteligencia.
De hecho, este proceso ya está muy avanzado. Hay cientos de tareas y actividades que antes eran el dominio exclusivo de la inteligencia humana y que ahora son llevadas a cabo por ordenadores, los cuales suelen ser más precisos que los humanos y pueden trabajar a una escala mucho mayor. Cada vez que usted envía un email o hace una llamada por teléfono móvil, algoritmos inteligentes optimizan el enrutado de la información. Lo mismo ocurre con la realización de electrocardiogramas que son interpretados por ordenador con una calidad que rivaliza con la de los doctores, y este también es el caso en la obtención de imágenes de células sanguíneas. Algoritmos inteligentes detectan automáticamente el fraude con tarjetas de crédito, pilotan y aterrizan aviones, guían sistemas armamentísticos inteligentes, ayudan a diseñar productos mediante diseños asistidos por ordenador, controlan los niveles de los inventarios just-in-time, ensamblan productos en fábricas robóticas y practican juegos tales como el ajedrez o incluso el sutil go a nivel de grandes maestros.
Millones de personas presenciaron cómo el ordenador de IBM llamado Watson jugó a Jeopardy! en lenguaje natural y obtuvo una mejor puntuación que la de los dos mejores jugadores del mundo juntos. A esto hay que añadir que Watson no solo leyó y “comprendió” el sutil lenguaje utilizado en el cuestionario de Jeopardy! (que incluye cosas como juegos de palabras y metáforas), sino que consiguió el conocimiento necesario como para encontrar las respuestas a partir de la comprensión por sí mismo de cientos de millones de páginas pertenecientes a documentos escritos en lenguaje natural que incluyen Wikipedia y otras enciclopedias. Literalmente, necesitó dominar cada área del esfuerzo intelectual humano, incluyendo la historia, la ciencia, la literatura, las artes, la cultura, etc. Actualmente IBM está trabajando con Nuance Speech Technologies (la antigua Kurzweil Computer Products, mi primera empresa) en una nueva versión de Watson que leerá literatura médica (básicamente todas las publicaciones y blogs médicos más importantes) para convertirse en un maestro del diagnóstico y de la consulta médica. Para ello utilizará las tecnologías de Nuance en la comprensión del lenguaje médico. Algunos analistas han sostenido que Watson realmente no “entiende” los cuestionarios de Jeopardy! ni las enciclopedias que ha leído porque se limita a realizar un “análisis estadístico”. Un punto fundamental que explicaré en este libro es que las técnicas matemáticas que se han desarrollado en el campo de la inteligencia artificial (tales como las que se usan en Watson y el asistente del iPhone llamado Siri) son matemáticamente muy similares a los métodos que la biología desarrolló bajo la forma del neocórtex. Si entender el lenguaje y otros fenómenos por medio de análisis estadísticos no se considera como verdadero entendimiento, entonces los humanos tampoco poseen entendimiento.
Muy pronto, la capacidad de Watson para dominar inteligentemente conocimientos mediante documentos en lenguaje natural va a ser adoptada por un buscador que usted tiene muy cerca. La gente ya está hablando con sus teléfonos en lenguaje natural, por ejemplo mediante Siri (a cuyo desarrollo también contribuyó Nuance). Así, no falta mucho para que, a medida que utilicen métodos similares a los de Watson y a medida que el propio Watson siga siendo mejorado, estos asistentes en lenguaje natural se vuelvan cada vez más inteligentes.
Los coches autopilotados de Google han cubierto 200 000 millas en las tumultuosas ciudades y pueblos de California (una cifra que sin duda será mucho mayor cuando este libro se encuentre en estanterías tanto reales como virtuales). En el mundo de hoy existen muchos otros ejemplos de inteligencia artificial, y muchos más se divisan en el horizonte.
Como ejemplos adicionales de la LOAR cabe decir que tanto la resolución espacial del escaneo del cerebro y la cantidad de datos que se están reuniendo sobre el cerebro se están doblando anualmente. También se está demostrando que estos datos se pueden convertir en modelos y simulaciones funcionales de las regiones del cerebro. Ya hemos logrado aplicar la ingeniería inversa a funciones fundamentales del córtex auditivo, que es donde procesamos información procedente de sonidos, así como del córtex visual, que es donde procesamos información procedente de nuestro sentido de la vista, y del cerebelo, que es donde realizamos parte de nuestra adopción de habilidades (como por ejemplo, coger al vuelo una pelota).
Lo más ambicioso del proyecto para comprender, modelizar y simular el cerebro humano es aplicar la ingeniería inversa al neocórtex cerebral, que es donde realizamos nuestro jerárquico pensamiento recursivo. El córtex cerebral, que acapara el 80% del cerebro humano, está compuesto de una estructura muy repetitiva, lo cual permite que los humanos creen arbitrariamente ideas dotadas de estructuras complejas.
A partir de la teoría de la mente basada en el reconocimiento de patrones, describo un modelo que explica cómo el cerebro humano adquiere su capacidad crítica mediante una estructura muy inteligente diseñada por la evolución biológica. Todavía hay detalles de este mecanismo cortical que no comprendemos completamente, pero sabemos lo suficiente sobre las funciones que necesita realizar como para diseñar algoritmos que satisfagan el mismo objetivo. Asimismo, a medida que empezamos a comprender el neocórtex estamos logrando aumentar enormemente su alcance, al igual que la aviación ha aumentado el alcance del principio de Bernoulli. Por tanto, es posible que el principio de funcionamiento del neocórtex sea la idea más importante del mundo, ya que es capaz de representar todo el conocimiento y habilidades humanas, así como de crear nuevos conocimientos. Después de todo, el neocórtex es el responsable de todas las novelas, de todas las canciones, de todos los cuadros, de todos los descubrimientos científicos y de todas las variopintas creaciones del pensamiento humano.
El campo de la neurociencia está muy necesitado de una teoría que englobe las extremadamente dispares y extensas observaciones que diariamente están siendo publicadas. Además, una teoría unificada es una necesidad fundamental de todas las áreas importantes de la ciencia. En el capítulo 1 describiré cómo dos soñadores unificaron la biología y la física, campos que previamente parecían irremediablemente desordenados y diversos, y luego analizaré cómo una teoría de estas características puede ser aplicada al cerebro.
Hoy día solemos encontrarnos con grandes elogios a la complejidad del cerebro humano. Si buscamos citas sobre este tema en Google, se nos muestran 30 millones de enlaces. (Es imposible traducir esto en el verdadero número de citas, ya que algunos sitios web a los que se muestran enlaces pueden contener varias citas o a veces pueden no contener ninguna). El propio James D. Watson escribió en 1992 que “el cerebro es la última y más importante frontera biológica, lo más complejo que hasta ahora hemos encontrado en nuestro universo”. Luego explica que él cree que “contiene cientos de miles de millones de células interconectadas a través de billones de conexiones. Así, el cerebro deja atónita a la mente” (5).
Estoy de acuerdo con Watson en cuanto al sentimiento de que el cerebro es la frontera biológica más importante, pero si pudiéramos identificar fácilmente patrones inteligibles (y reproducibles) en sus células y conexiones (especialmente en las que son masivamente redundantes), entonces el hecho de que contenga muchos miles de millones de células y billones de conexiones no significaría necesariamente que su método primario fuera complejo.
Pensemos sobre lo que significa que algo sea complejo. Nos podemos preguntar ¿es complejo un bosque? La respuesta depende de la perspectiva elegida. Se podría señalar que hay muchos miles de árboles en el bosque y que cada uno es diferente. Entonces se podría mencionar que cada árbol posee miles de ramas y que todas son completamente diferentes. Después se podría proceder a describir los retorcidos caprichos de una sola rama. La conclusión podría ser que el bosque posee una complejidad que supera la imaginación más desbocada.
Sin embargo, en una aproximación así los árboles (literalmente) no nos dejarían ver el bosque. Es cierto que hay una gran cantidad de variación fractal encerrada en los árboles y ramas, pero para entender correctamente los principios de un bosque sería mejor empezar por identificar los distintos patrones de redundancia con variación estocástica (es decir, aleatoria) que pudiéramos encontrar. Así, sería justo decir que el concepto de bosque es más sencillo que el concepto de árbol.
Este es el caso del cerebro, el cual posee una enorme redundancia, especialmente en el neocórtex. Tal y como describiré en este libro, sería justo decir que hay más complejidad en una sola neurona que en la estructura general del neocórtex.
Mi objetivo con este libro no es en absoluto añadir una nueva cita a las millones que ya existen y que atestiguan lo complejo que es el cerebro, sino más bien impresionarle a usted con el poder de su simplicidad. Esto lo realizaré describiendo cómo un ingenioso mecanismo básico que se repite cientos de millones de veces y que sirve para reconocer, recordar y predecir un patrón es el responsable de la gran diversidad de nuestro pensamiento. Igual que una asombrosa diversidad de organismos surge de las diferentes combinaciones de valores del código genético que se encuentra en el ADN nuclear y mitocondrial, basada en los valores de los patrones que se encuentran en el interior y entremedias de nuestros reconocedores de patrones, surge una asombrosa variedad de ideas, pensamientos y capacidades. Tal y como dice el neurocientífico del MIT Sebastian Seung, “la identidad no depende de nuestros genes, sino de las conexiones entre nuestras células cerebrales” (6).
Visualización del set de Mandelbrot, una fórmula simple representada iterativamente. Al utilizar el zoom, las imágenes cambian constantemente de forma aparentemente compleja.
Hasta el momento me he referido al cerebro, ¿pero qué pasa con la mente? Por ejemplo, ¿cómo consigue ser consciente un neocórtex que resuelve problemas? Y ahora que mencionamos esto, ¿cuántas mentes conscientes tenemos en nuestro cerebro? Existen evidencias que sugieren que puede haber más de una.
Otra pregunta pertinente sobre el cerebro es ¿qué es el libre albedrío? ¿poseemos tal cosa? Hay experimentos que parecen demostrar que empezamos a poner en práctica nuestras decisiones antes incluso de que las hayamos tomado. ¿Significa eso que el libre albedrío es una ilusión?
Y por último, ¿qué atributos de nuestro cerebro son los responsables de formar nuestra identidad? ¿soy la misma persona que era hace seis meses? Está claro que no soy exactamente el mismo que entonces, pero ¿tengo la misma identidad?
En relación con estas antiquísimas cuestiones, veremos lo que propone la teoría de la mente basada en el reconocimiento de patrones.
* Libro publicado por Lola Books en español.
** Siglas en inglés correspondientes a “Law Of Accelerated Returns”.
* Siglas en inglés de “pattern recognition theory of mind”.
La teoría de Darwin de la selección natural nació muy tarde en la historia del pensamiento.
¿Se debió este retraso a que se oponía a la verdad revelada, a que se trataba de un tema absolutamente nuevo en la historia de la ciencia, a que era aplicable solo a los seres vivos o a que se centraba solo en los objetivos y en las causas finales sin postular un origen de la creación? Yo creo que no. Simplemente, Darwin descubrió el papel jugado por la selección, una forma de causalidad muy diferente de los mecanismos de acción-reacción* utilizados por la ciencia hasta ese momento. El origen de una enorme variedad de seres vivos pasó a poder ser explicado mediante la contribución hecha por aquellas nuevas características (seguramente de origen aleatorio) que les habían permitido sobrevivir. En la física o en la biología, muy poco o nada hacía presagiar que la selección fuera un principio causal.
—B. F. SKINNER
En último término, aparte de la integridad de la propia mente nada es sagrado.
—RALPH WALDO EMERSON
A principios del siglo XIX, los geólogos se hicieron una pregunta fundamental. Por todo el planeta había grandes cavernas y cañones tales como el Gran Cañón del Colorado en los EE.UU. y el desfiladero de Vikos en Grecia (el cañón más profundo encontrado hasta la fecha). ¿Cómo surgieron estas majestuosas formaciones?
Siempre había una corriente de agua que parecía haber aprovechado la oportunidad para discurrir a través de estas estructuras naturales, pero antes de la mitad del siglo XIX se consideraba absurdo que estos suaves flujos pudieran ser los creadores de valles y acantilados tan enormes. Sin embargo, el geólogo británico Charles Lyell (1797–1875) sugirió que era el movimiento del agua lo que, grano de arena a grano de arena, había esculpido estas enormes modificaciones geológicas a lo largo de grandísimos periodos de tiempo. Al principio, esta sugerencia fue ridiculizada, pero dos décadas después fue mayoritariamente aceptada.
Una persona que observó cuidadosamente la respuesta de la comunidad científica a la tesis radical de Lyell fue el naturalista inglés Charles Darwin (1809–1882). Hay que tener en cuenta la situación de la biología hacia 1850. Se trataba de un campo infinitamente complejo que se topaba con innumerables especies animales y vegetales, cada una de las cuales presentaba una gran complejidad. Por encima de todo, la mayoría de científicos se resistía a intentar plantear una teoría unificadora de la deslumbrante variedad encontrada en la naturaleza. Esta diversidad servía como testimonio de la gloria de la creación de Dios, y por supuesto de la inteligencia de los científicos que eran capaces de abarcarla.
Darwin abordó el problema concibiendo una teoría general de las especies que era análoga a la tesis de Lyell y con ella explicó los cambios graduales en las características de las especies que se producen a lo largo de muchas generaciones. Después, durante su famoso viaje en el Beagle, combinó esta perspectiva con sus propios experimentos mentales y observaciones. Darwin sostuvo que en cada generación los individuos que sobreviven mejor en su nicho ecológico son los individuos que dan lugar a la siguiente generación.
El 22 de noviembre de 1859 se publicó su libro El Origen de las Especies, en el que dejaba clara su deuda con Lyell:
Me doy perfecta cuenta de que a esta doctrina de la selección natural, considerada por las imaginarias instancias superiores, se le pueden hacer las mismas objeciones que al principio se erigieron contra las nobles opiniones de Sir Charles Lyell cuando postuló “los cambios actuales de La Tierra como evolución geológica”. Sin embargo, es muy raro escuchar hoy que, por ejemplo, las olas que azotan la costa sean consideradas como causas insignificantes cuando se habla de la excavación de gigantescos valles o de la formación de los más amplios acantilados de tierra adentro. La selección natural solo puede actuar mediante la preservación y acumulación de modificaciones heredadas infinitamente pequeñas, cada una de las cuales es aprovechada para la preservación del ser vivo en cuestión. Al igual que de la geología moderna casi han desaparecido las opiniones que defienden que un gran valle pueda ser excavado mediante una sola ola diluvial, la selección natural (si es un principio verdadero) acabará con la creencia en la creación continua de nuevos seres orgánicos o en la modificación repentina y profunda de su estructura (1).
Charles Darwin, autor de El Origen de las Especies, que estableció la idea de evolución biológica.
Siempre hay múltiples razones por las que las nuevas ideas encuentran oposición, y en el caso de Darwin no es difícil identificarlas. A muchos analistas no les sentó bien que no descendiéramos de Dios, sino de los monos y antes de eso de los gusanos. La implicación de que nuestro perro mascota fuera nuestro primo, al igual que la oruga y la planta por la que se mueve (quizá un primo en millonésimo o milmillonésimo grado, pero pariente al fin y al cabo), fue tomado por muchos como una blasfemia.
Sin embargo, la idea cuajó pronto, ya que dotó de coherencia a lo que anteriormente había sido una plétora de observaciones sin relación aparente. Hacia 1872, para la publicación de la sexta edición de El Origen de las Especies, Darwin añadió este pasaje: “A modo de crónica de un estado de cosas pasado, he mantenido en los parágrafos anteriores […] varias frases que implican que los naturalistas creen que cada especie se creó por separado. He sido muy censurado por haberme expresado así. Sin embargo, esta manera de pensar era la creencia generalizada cuando este trabajo se presentó por primera vez […]. Ahora las cosas son completamente diferentes y casi todos los naturalistas admiten el gran principio de la evolución” (2).
La idea unificadora de Darwin se acentuó durante el siguiente siglo. Así, en 1869, solo una década después de la primera publicación de El Origen de las Especies, el médico suizo Friedrich Miescher (1844–1895) descubrió una sustancia llamada “nucleína” en el núcleo celular que resultó ser el ADN (3). En 1927, el biólogo ruso Nikolai Koltsov (1872–1940) describió lo que él llamaba una “molécula hereditaria gigante” y dijo que estaba compuesta de “dos cadenas especularmente simétricas que se replican de manera semiconservativa usándose la una a la otra como molde”. También muchos condenaron su descubrimiento. Los comunistas lo consideraban propaganda fascista, y su repentina e inesperada muerte se ha atribuido a la policía secreta de la Unión Soviética (4). En 1953, casi un siglo después de la publicación del seminal libro de Darwin, el biólogo norteamericano James D. Watson (nacido en 1928) y el biólogo inglés Francis Crick (1916–2004) ofrecieron la primera definición precisa de la estructura del ADN. La describieron como una doble hélice de dos largas moléculas entrelazadas (5). Es preciso reseñar que su descubrimiento se basó en lo que se conoce como “fotografía 51”, que fue tomada por su colega Rosalind Franklin usando cristalografía de rayos X. Esta fue la primera representación que mostró la doble hélice. Por eso, dadas las consecuencias que tuvo la imagen de Franklin, se ha sugerido que esta debería haber compartido el Premio Nobel de Watson y Crick (6).
A partir de la descripción de una molécula que podía codificar el programa de la biología, se asentó sobre seguro una teoría unificadora de la biología que proporcionaba una sencilla y elegante base para todo tipo de vida. Así, un organismo puede madurar hasta convertirse en una brizna de césped o en un ser humano dependiendo solamente de los valores que tomen los pares de bases que componen las cadenas de ADN en el núcleo de la célula y, en menor grado, la mitocondria. No obstante, esta perspectiva no acababa con la encantadora diversidad de la naturaleza, sino que nos hacía comprender que su extraordinaria diversidad surge a partir de una gran variedad de estructuras que pueden ser codificadas por esta molécula universal.
A principios del siglo XX, el mundo de la física cambió totalmente gracias a otra serie de experimentos mentales. En 1879, un ingeniero alemán y un ama de casa tuvieron un niño. Este no empezó a hablar hasta que cumplió los tres. Además, se sabe que a los nueve tuvo problemas en el colegio y que a los dieciséis fantaseaba con galopar a lomos de un rayo de luna.
Este joven estaba al corriente del experimento que en 1803 hiciera el matemático inglés Thomas Young (1773–1829) y que demostró que la luz se compone de ondas. En aquel tiempo, la conclusión fue que la luz debía de viajar a través de algún tipo de medio (después de todo, las olas del océano viajaban a través del agua y las ondas del sonido viajaban a través del aire y de otros materiales). A este medio por el que viajaba la luz los científicos lo llamaron “éter”. Nuestro joven también conocía el experimento llevado a cabo en 1887 por los científicos Albert Michelson (1852–1931) y Edward Morley (1838–1923) que intentó confirmar la existencia del éter. La analogía en la que se basaba el experimento era un viaje en una barca de remos que se desplazaba hacia arriba y hacia abajo por el curso de un río. Si se rema a una velocidad constante, la velocidad de la barca medida desde la orilla será mayor si se rema a favor de la corriente que si se rema contracorriente. Además, Michelson y Morley asumían que la luz viajaría a través del éter a velocidad constante (es decir, a la velocidad de la luz).
A partir de esto, su razonamiento les llevó a pensar que la velocidad de la luz del sol cuando La Tierra se desplaza por su órbita en dirección al sol (medida desde nuestro punto de vista terrestre) y su aparente velocidad cuando La Tierra se desplaza en dirección contraria al sol debería ser diferente. La diferencia tendría ser igual al doble de la velocidad de La Tierra. Esto confirmaría la existencia del éter. Sin embargo, lo que descubrieron fue que no había ninguna diferencia en la velocidad de la luz del sol con respecto a La Tierra, independientemente del lugar de la órbita en el que se encontrara esta.
Así, su descubrimiento rebatió la idea del “éter”, pero entonces ¿qué era lo que pasaba en realidad? Durante casi dos décadas esto continuó siendo un misterio.
Al igual que parece inmóvil un tren que viaja a nuestro lado y a nuestra misma velocidad, cuando el adolescente alemán se imaginaba cabalgando junto a un haz de luz, creía que debería ver las ondas de la luz inmóviles. Sin embargo, se daba cuenta de que esto era imposible, ya que se supone que la velocidad de la luz es constante independientemente del movimiento de uno mismo. Esto le llevó a imaginar que galopaba junto a un haz de luz pero a una velocidad un poco más baja. ¿Qué pasaría al viajar al 90% de la velocidad de la luz? Si los haces de luz son como trenes, argüía, entonces debería ver el haz de luz adelantándole a una velocidad igual al 10% de la velocidad de la luz. De hecho, eso sería lo que verían los observadores desde la Tierra. Sin embargo, sabemos que la velocidad de la luz es constante, tal y como demostraba el experimento de Michelson-Morley, y por lo tanto esto significaba necesariamente que vería el haz de luz alejándose de él a la velocidad de la luz. Esto parecía una contradicción, ¿cómo podría ser posible algo así?
El chaval alemán, que por cierto se llamaba Albert (1879–1955), tuvo clara la respuesta al cumplir los veintiséis, momento en el que al gran Einstein le se le hizo evidente que para él el tiempo en sí tendría que discurrir más despacio. Explica su razonamiento en un trabajo publicado en 1905 (7). Si observadores terrestres pudieran ver el reloj del joven, verían que funciona diez veces más despacio. De hecho, cuando volviera a La Tierra su reloj mostraría un intervalo de tiempo de solo el 10% (dejando a un lado por el momento la aceleración y la desaceleración). Desde su perspectiva, sin embargo, su reloj habría funcionado normalmente y el haz de luz de su lado se habría desplazado a la velocidad de la luz. El 10% de disminución en la velocidad del tiempo en sí (comparado con los relojes de La Tierra) explica perfectamente las aparentes discrepancias en cuanto a la perspectiva.
En último término, la disminución en el paso del tiempo llegaría a ser cero si la marcha alcanzase la velocidad de la luz, lo cual significaba que era imposible cabalgar a la misma velocidad que la luz. No obstante y pese a esto, teóricamente no resultaba imposible moverse más rápido que el haz de luz, por lo que si se pudiera adelantar al haz de luz el tiempo iría hacia atrás.
Muchas de las primeras críticas tildaron esto de absurdo. ¿Cómo podría ralentizarse el tiempo basándose solamente en la velocidad de desplazamiento de uno mismo? Así, desde que dieciocho años antes se realizara el experimento Michelson-Morley, el resto de pensadores habían sido incapaces de llegar a la conclusión que al gran Einstein le parecía tan obvia. Todos los que habían sopesado este problema durante la última parte del siglo XIX “se habían caído del caballo” en términos del seguimiento de las implicaciones de un principio, ya que optaron por adherirse a sus preconcebidas nociones sobre cómo debe funcionar la realidad. (Seguramente mi metáfora debería decir que “se cayeron del haz de luz”).
El segundo experimento mental de Einstein fue imaginarse que él y su hermano volaban por el espacio. Les separan 186 000 millas. Einstein quiere moverse más deprisa, pero al mismo tiempo desea que la distancia entre él y su hermano siga siendo la misma. Por eso, cada vez que quiere acelerar, le hace a su hermano una señal luminosa. Dado que él sabe que la señal luminosa tardará un segundo en llegar a su hermano, aguarda un segundo después de haber hecho la señal para empezar a acelerar. Su hermano siempre acelera inmediatamente después de haber recibido la señal. De esta manera, ambos hermanos aceleran exactamente al mismo tiempo y por tanto la distancia entre los dos se mantiene constante.
Sin embargo, consideremos ahora lo que veríamos desde la Tierra. Si los hermanos se estuvieran alejando de nosotros con Albert a la cabeza, parecería que la señal tardara menos de un segundo en alcanzar al hermano, ya que este está desplazándose hacia la luz. Asimismo, podríamos observar cómo el reloj del hermano de Albert disminuye su velocidad (si se desplazara hacia nosotros, veríamos cómo la velocidad del reloj aumenta). Por estas dos razones, veríamos cómo los dos hermanos se acercan cada vez más y al final colisionan. Sin embargo, desde la perspectiva de los dos hermanos, ambos permanecen separados a una distancia de 186 000 millas.
¿Cómo puede ser esto posible? La respuesta es que (obviamente) las distancias se contraen paralelamente al movimiento (no perpendicularmente). Esto significa que (dando por sentado que vuelan con la cabeza hacia delante) los hermanos Einstein se hacen cada vez más pequeños a medida que se desplazan más deprisa. En un principio, es probable que con esta extraña conclusión Einstein perdiera más seguidores que con la conclusión relativa al paso del tiempo.
Ese mismo año, Einstein sopesó la relación entre materia y energía mediante otro experimento mental más. En la década de 1850, el físico escocés James Clerk Maxwell había demostrado que las partículas de la luz llamadas fotones no tenían masa, pero que sin embargo tenían momento. Cuando era pequeño tuve un aparato llamado radiómetro de Crookes (8) que consistía en una bombilla de cristal hermética que contenía un vacío parcial y un conjunto de cuatro veletas que rotaban alrededor de un huso. Las veletas eran blancas por un lado y negras por el otro. El lado blanco de cada veleta reflejaba la luz y el negro absorbía la luz. (Por eso es más fresco llevar una camiseta blanca que una negra en un día de calor). Cuando una luz alumbraba el aparato, las veletas rotaban según los lados oscuros se alejaban de la luz. Esta es una demostración fehaciente de que los fotones portan el momento suficiente como para hacer que las veletas del radiómetro se muevan (9).
La cuestión a la que se enfrentó Einstein es que el momento se define en función de la masa: el momento es igual a la masa multiplicada por la velocidad. Dado que una locomotora desplazándose a 30 millas por hora tiene mucho más momento que, pongamos por caso, un insecto desplazándose a la misma velocidad, ¿cómo puede entonces ser posible que una partícula de masa igual a cero tenga momento positivo?
El experimento mental de Einstein consistía en una caja flotando en el espacio. Un fotón es emitido en el interior de la caja desde el lado izquierdo hacia el derecho. Necesariamente, el momento del sistema ha de conservarse, de manera que la caja tendría que retroceder hacia la izquierda cuando el fotón fuera emitido. Después de un cierto tiempo, el fotón colisiona contra el lado derecho de la caja, transfiriendo así su momento de vuelta a la caja. De nuevo, el momento total del sistema se conserva, de manera que la caja deja de moverse.
Por ahora, todo bien. Sin embargo, téngase en cuenta el punto de vista privilegiado del Sr. Einstein, que está observando la caja desde el exterior. No observa ninguna influencia externa sobre la caja, ya que ninguna partícula (con o sin masa) impacta sobre ella y nada sale de la caja. No obstante, el Sr. Einstein, según el escenario descrito anteriormente, ve cómo la caja se mueve temporalmente hacia la izquierda y luego se detiene. De acuerdo con nuestro análisis, cada fotón debería mover la caja permanentemente hacia la izquierda. Además, dado que no ha habido efectos extraños sobre la caja o desde el interior de ella, su centro de masas debe permanecer en el mismo lugar. Sin embargo, el fotón en el interior de la caja, que se mueve de izquierda a derecha, no puede cambiar el centro de masas porque no tiene masa, ¿o sí que puede? La conclusión de Einstein fue que, dado que obviamente el fotón posee energía y momento, también debe de tener una masa equivalente. La energía de un fotón en movimiento es por completo equivalente a una masa en movimiento. Teniendo en cuenta que el centro de masas del sistema tiene que permanecer estacionario durante el movimiento del fotón, podemos calcular la equivalencia. Al hacer cuadrar matemáticamente este razonamiento, Einstein demostró que la masa y la energía son equivalentes y se relacionan entre sí según una constante simple. Sin embargo, aquí había trampa, ya que la constante puede que fuera simple, pero resultó ser enorme: el cuadrado de la velocidad de la luz (más o menos 1,7 • 1017 metros2 por segundo2, es decir, 17 seguido de 16 ceros). Así es cómo se obtiene la famosa ecuación de Einstein E=mc2 (10). Por consiguiente, una onza (28 gramos) de masa equivale a 600 000 toneladas de trinitrotolueno (TNT). La carta que envió Einstein el 2 de agosto de 1939 informaba al Presidente Roosevelt del potencial para crear una bomba atómica encerrado en esta fórmula, lo cual dio lugar a la era nuclear (11).
Un radiómetro de Crookes— la veleta de cuatro alas rota cuando la luz la ilumina.
Se podría pensar que esto ya tenía que estar claro anteriormente, ya que los investigadores ya se habían dado cuenta de que con el tiempo la masa de las sustancias radioactivas disminuía como resultado de la radiación. Sin embargo, se daba por sentado que las sustancias radioactivas contenían un cierto tipo de combustible de alta energía que iban consumiendo progresivamente. Esta suposición no es del todo errónea, lo que pasa es que el combustible “consumido” es, simplemente y llanamente, masa.