9,99 €
Hace apenas un siglo, el universo lo concebíamos como radiación, luz y una pequeña parte en forma de materia formada por átomos. Estos, a su vez, estaban hechos de protones, electrones y, aunque aún no se había confirmado, neutrones. Analizando primero los rayos cósmicos, y después con el desarrollo de los aceleradores de partículas, el mundo quedó fascinado ante el descubrimiento de una enormidad de partículas consideradas elelemntales. Poco a poco, el concepto de elemental se puso en duda, pues muchas de aquellas partículas bien podrían estar formadas por otras. Se conjetuaron los quarks, los gluones y otras partículas intermediarias de las fuerzas nucleares elaborándose el llamado modelo estándar de la física de partículas. Se clasificó todo aquel maremágnum en una nueva tabla periódica de Mendeléyev de los elementos, que aún crecería más. Este libro permite adentrarse en el fascinante bosque de las partículas elementales que le dan fundamento y razón a la existencia de nuestro universo y, en consecuencia, a nosotros mismos.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 774
© del prólogo: Manuel Lozano Leyva, 2024.
© del texto de El modelo estándar de partículas: Mario E. Gómez Santamaría.
© del texto de Quarks y gluones: José Rodríguez-Quintero.
© del texto de El bosón de Higgs: David Blanco Laserna.
© del texto de Más allá delmodelo estándar de partículas: Óscar Vives.
© de las fotografías de El modelo estándar de partículas: Archivo RBA: 34i, 34d, 70d, 111a; BEBC/CERN: portada; CERN: 142-143, 145, 160-161; Departamento de Energía del Gobierno de Estados Unidos: 107; Fermilab, Reidar Hahn: 111b; Wellcome Images: 70i.
© de las fotografías de Quarks y gluones: Archivo RBA: 235i; Bettmann/Getty Images: 283b; Maximilien Brice/CERN: 283a; CERN/CMS Collection: 288; Spencer Grant/Age Fotostock: 243b; Jacopin/Age Fotostock: 296-297; Ad Meskens/Wikimedia Commons: 243a; Paul Preuss/Lawrence Berkeley National Laboratory/U.S. DoE: portada; Ward van Wanrooij/Wikimedia Commons: 235d; Wiso/Wikimedia Commons: 300.
© de las fotografías de El boson de Higgs: Fotografías: Associated Press: 437; CERN: portada, 397a, 397b, 455; Peter Macdiarmid/Getty Images: 467b; NASA, ESA, J. Clarke (Universidad de Boston)y Z. Levay (STScI): 336-337; Science Photo Library/Age Fotostock: 283, 314-315, 317a.
© de las fotografías de Más allá del modelo estándar de partículas: Age Fotostock/Alfred Pasieka/SPL: 466; Age Fotostock/CERN: 581a; Age Fotostock/David Parker: 529a; Age Fotostock/Mark Garlick/SPL: 611a; Age Fotostock/Sciece Photo Library: 535, 611b; 588-589, 135b; Age Fotostock/ Superstock: 489b, 529b; CERN: 607b; Getty Images/Boyer: 489a; Getty Images/ Fabrice Coffrini: 510-511; Getty Images/Mondadori: 580; Getty Images/The Asahi Shimbun: 555; ILC Rey Kori/KEK : 613a; Matevz Tadel/UC San Diego/CMS: 568; NASA HST: 583b; NASA: 533a; 533b; 583a; 607a; Shutterstock: Portada; Wikipedia: 492-493; 497a; 497b; 543a; 543b; 548; 549; 585 a; 585 b; 613 b.
Diseño de interior: Tactilestudio.
Infografías: Joan Pejoan.
Realización: Editec.
Composición del ómnibus: El Taller del Llibre.
© de esta edición: RBA Libros y Publicaciones, S. L. U., 2024.
Avda. Diagonal, 189 – 08018 Barcelona
rbalibros.com
Primera edición en libro electrónico: noviembre de 2024.
OBDO408
ISBN: 978-84-1132-967-5
Composición digital: www.acatia.es
Queda rigurosamente prohibida sin autorización por escrito del editor cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra, que será sometida a las sanciones establecidas por la ley. Pueden dirigirse a Cedro (Centro Español de Derechos Reprográficos, www.cedro.org) si necesitan fotocopiar o escanear algún fragmento de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 47).
Todos los derechos reservados.
Índice
Portadilla
Prólogo
El modelo estándar de partículas: Los pilares de la materia
Introducción
De los átomos indivisibles al núcleo atómico y el electrón
Materia e interacciones: fermiones y bosones
Partículas relativistas. La ecuación de Dirac
La primera teoría cuántica de campos: la electrodinámica cuántica
Aceleradores de partículas, simetrías y quarks
Las teorías de las interacciones fuerte y electrodébil
El modelo estándar completo
Quarks y gluones: Las entrañas de las partículas elementales
Introducción
De Abdera a Mánchester
En el corazón del núcleo
Luz, materia y simetría
La fauna subnuclear y la vía óctuple
Color, libertad y confinamiento
El bosón de Higgs: Los secretos de la partícula divina
Introducción
Campos cuánticos
El campo de Higgs entra en escena
El enigma de la masa
Nacido el 4 de julio
Más allá del modelo estándar de partículas: Los engranajes ocultos del universo
Introducción
El modelo estándar
Preguntas abiertas en el modelo estándar
Gran Unificación, el problema de la jerarquía y la supersimetría
El puzle del sabor: ¿Quién pidió esto?
En busca de la nueva física
Bibliografía
por
MANUEL LOZANO LEYVA
A finales del XIX se consideraba que la física había alcanzado sus límites. Solo restaba simplificar sus formulaciones con objetivo pedagógico y calcularles más cifras decimales a los resultados experimentales más importantes. Ningún descubrimiento revolucionario, ni siquiera relevante, faltaba por hacer. La mecánica, la óptica, el electromagnetismo y la termodinámica habían entrado ya en la fase de la ingeniería, por lo que solo quedaba la tarea de ampliar sus aplicaciones. Dos físicos importantes cuyos nombres no recuerdo con certeza resumieron la situación de una manera deliciosa. Uno le escribió al otro que lo único que quedaba pendiente en física era refinar detalles. La carta de respuesta de su amigo mostraba el esquema de un marco que encuadraba un tosco monigote. Debajo, escribía lacónicamente: «Salvo detalles refinados, pinto como Tiziano».
En aquella época se había hecho realidad el sueño de algunos de los más profundos filósofos clásicos, en particular Demócrito: los pilares del mundo eran los átomos. Y no muy avanzado el siglo XX, los detalles refinados se estaban convirtiendo en revoluciones encadenadas con las más convulsas a la cabeza: la teoría de la relatividad y la mecánica cuántica. El átomo ya tenía diseñada su estructura con bastante rigor, aunque sus componentes aún no estaban muy bien determinados. Era obvio que aquello era un sistema eléctrico, es decir, que los electrones jugaban el papel esencial. Pero la materia en general es eléctricamente neutra, por lo que los protones, de carga igual pero opuesta, eran otra partícula fundamental constituyente. Había un problema: según el experimento de Rutherford que ya se vio en otro volumen de esta serie, los protones tenían que estar unidos en un espacio extraordinariamente pequeño, el núcleo atómico, y siendo todos del mismo signo era inimaginable que este fuera estable. Había que postular una nueva partícula, el neutrón, que diera origen a otra fuerza atractiva mucho más poderosa que la eléctrica repulsiva entre cargas del mismo signo. Se descubrió en 1932 y ya tenemos al mundo compuesto por tres partículas elementales, a la que quizás había que añadirles el fotón o, digamos, luz interpretada como partículas y no como ondas. Lo cual ya estaba bastante asumido. Pero había otro problema: la radiactividad de los esposos Curie. Parecía que los neutrones podían convertirse en protones, y viceversa, expeliendo electrones. Era la llamada radiación beta. Pasmosamente, aquello violaba un sacrosanto principio de la física, el de la conservación de la energía. Se arreglaba el asunto postulando la existencia de una nueva partícula más misteriosa en sus propiedades que ninguna otra: el neutrino, cuya carga eléctrica era tan nula como la del neutrón, pero su masa también tenía que ser cero. Se completó el misterioso panorama de manera que, a las dos fuerzas de la naturaleza, la gravitatoria y la electromagnética, hubo que añadirles otras dos: la fuerza nuclear fuerte (estabilidad del núcleo atómico) y la débil (responsable de la radiactividad beta). ¿Habría más partículas elementales? ¿Habría más fuerzas en la naturaleza? Seguramente, porque proveniente al parecer del espacio exterior se detectó una especie de electrón idéntico en todo al familiar, pero con una masa doscientas veces mayor. Se representó con la letra griega mu (µ) y denominó muon. Para colmo de confusión, los muones existían durante apenas dos millonésimas de segundo, en comparación con la vida eterna de los electrones. Y entonces se empezó a pintar como Tiziano. Además, se hizo vertiginosamente.
Para explorar el átomo, en particular su minúsculo núcleo que en relación con el conjunto está en una proporción parecida a la de una mosca que revolotea en el centro interior de una catedral, hay que enviarle sondas. Es en todo análogo a la exploración espacial: pequeñas naves no tripuladas que recojan datos de la superficie del satélite, asteroide o planeta que hay que estudiar. Salvo que aquí las sondas son otras partículas. Pero a estas hay que imprimirles gran velocidad para que su energía supere a la repulsión eléctrica que puede evitar el contacto. La máquina, por supuesto eléctrica, que ha de imprimirle ese impulso a las sondas se llamó con toda lógica aceleradores de partículas.
Los primeros aceleradores tenían el porte de una habitación mediana, pero los resultados que fueron obteniendo los primeros experimentos de colisiones de partículas contra átomos y sus núcleos fueron fascinantes. Surgían nuevas partículas por efímeras que fueran sus vidas antes de desintegrarse. La carrera que se desató en todo el mundo fue formidable. El culmen llegó con el CERN, Centro (o Consejo) Europeo para la Investigación Nuclear o Laboratorio Europeo de Física de Partículas. Se empezó construyendo en 1954 un pequeño acelerador en la frontera entre Suiza y Francia cerca de Ginebra y acabó encadenando aceleradores hasta llegar al actual, el LHC en un túnel de 27 kilómetros de largo con detectores subterráneos del porte de lo dicho: pequeñas catedrales. Es el mayor laboratorio científico del mundo incluida la Estación Espacial Internacional.
La avalancha de partículas elementales que se fueron descubriendo aturdió a todo el mundo científico, pero quienes más conmovidos estaban eran los físicos teóricos. Tras aquellos centenares de partículas tenía que haber algún mecanismo y estructura que explicaran el conjunto. En una revista científica, Physics Today, apareció un anuncio comercial que mostraba metafórica, pero muy acertadamente, el desafío. Se lanzaba un bello reloj de bolsillo contra otro y, tras chocar violentamente, saltaban piezas por todas partes. Estudiando las piezas recogidas había que deducir el mecanismo del muelle y el áncora que explicara el funcionamiento de los relojes y el papel de cada una de ellas en la naturaleza.
El orden que se fue poniendo en aquel variadísimo zoo subnuclear, como se llamó al conjunto de nuevas partículas, se basaba en que la mayoría de ellas no eran elementales, como se creía, sino que estaban formadas por otras: los quarks y los gluones. Estas sí que eran indivisibles en el sentido filosófico de la Grecia clásica. Y el mecanismo del áncora relojero se estableció como el bosón de Higgs. Así, combinando la teoría de la relatividad especial con la mecánica cuántica y contemplando en ella la posibilidad de que en los “estallidos” o reacciones nucleares inducidas el número y la naturaleza de las partículas iniciales y finales no fueran los mismos (relojes antes del choque, piezas después) se elaboró la llamada Teoría Cuántica de Campos. La aplicación de esta a los resultados experimentales permitió construir el que acabó llamándose modelo estándar de la física de partículas. Las fuerzas nucleares y la electromagnética quedaron unificadas (al menos con la nuclear débil, porque la fuerte aún presenta algunos problemas para incorporarla al modelo de modo inapelable), pero la gravitatoria quedó completamente fuera de juego. Era lógico, porque esta es inmensamente más débil que las otras reinando en el cosmos a gran escala y no en el microcosmos de los átomos, los núcleos y las partículas. Pero ahí quedaba ese cabo suelto.
El Modelo Estándar explicaba, con una exactitud admirable y una simplicidad meridiana prácticamente todos los datos experimentales. Había tres y solo tres familias de partículas muy parecidas entre ellas. La primera y familiar la encabezaban el electrón y el neutrino asociado a él, y los dos quarks (los llamados up y down) que, tomados de tres en tres, formaban los familiares protones y neutrones. Las otras dos familias, salvo en la masa, eran del todo análogas a aquella. De hecho, el «electrón» de la segunda es el muon antes mencionado. Los gluones y otros tres llamados W+, W- y Z0 eran los que transmitían las fuerzas nucleares como lo hacen los fotones con la electromagnética.
Mucho antes de que se rematara el modelo estándar de la física de partículas con la detección del bosón de Higgs, la inquietud iba invadiendo el mundo de la física fundamental. Por firme que estuviera siendo la confirmación de sus predicciones con los datos obtenidos en los distintos aceleradores, había asuntos que no cuadraban. Los problemas venían fundamentalmente del cosmos.
Un símbolo sánscrito se adoptó en la física: la serpiente que se muerde la cola. Sheldom Glashow, gran físico, buena persona y uno de los padres de la unificación citada de la fuerza nuclear débil y la electromagnética, fue quien lo propuso. Daba a significar con ello cómo la cola de la serpiente, lo más minúsculo que es el microscosmos de los átomos, sus núcleos y las partículas elementales, se unía, en la boca del ofidio, con el inmensamente grande macrocosmos galáctico y su origen hasta nuestros días, nuestro planeta y nosotros mismos ocupando el cuerpo Ouroboros, que así se denomina el símbolo ancestral.
Conforme los astrofísicos y cosmólogos iban descubriendo aspectos inéditos del universo, el Modelo Estándar se iba quedando pequeño. Este predecía una simetría perfecta de las partículas y las antipartículas a modo de espejo en que se reflejaran unas y otras. En el laboratorio siempre se generan simultáneamente por pares. ¿Por qué nuestro universo es de partículas y apenas quedan antipartículas? ¿Qué pasó tras el Big Bang para que ocurriera semejante disimetría? ¿Por qué se muestra tan pertinaz la cuarta fuerza de la naturaleza, la gravedad que es la reina del universo, a formar parte de Ouroboros incorporándose al dichoso Modelo Estándar? ¿Por qué el universo parece acelerarse en su expansión en lugar de frenarse como ocurre tras cualquier explosión? ¿De qué clase de partículas está formada la llamada materia oscura (en rigor, transparente) de la que no tenemos ni idea salvo que existe en una proporción muchas veces mayor que la materia que vemos en todo el rango de la radiación, no solo la luz visible? ¿Por qué sigue tercamente la fuerza nuclear fuerte sin ajustar del todo en el modelo? Y así muchas otras preguntas quedan sin explicar haciendo uso del Modelo Estándar. Obviamente hay que ir más allá de él y, aunque lógicamente, se han formulado infinidad de posibilidades, aún falta mucho por hacer para sobrepasar dicho modelo.
Dicen que la mecánica cuántica, la relatividad y todas las nuevas teorías de la física destruyeron la física clásica y es absolutamente falso. Es tan erróneo como no considerar que los barcos de vela y los trenes de vapor funcionaban perfectamente, al igual que lo hace la mecánica de Newton y Laplace explicando detalladamente el movimiento de los planetas en torno al Sol. Lo que no se puede es comparar aquell modelo estándar de la física de partículas os barcos y trenes con los submarinos nucleares o los ferrocarriles de alta velocidad. Ni aplicar las leyes clásicas a ciertas dinámicas galácticas. De igual manera, por mucho que sobrepasemos al modelo estándar de la física de partículas, la nueva teoría tendrá que englobarlo y dar los excelentes resultados que está dando ahora en su dominio de aplicación.
MANUEL LOZANO LEYVA
Catedrático de Física Atómica, Molecular y Nuclear
En este libro se presenta el modelo estándar de las interacciones fundamentales (ME) a través del progreso en las teorías y experimentos que, a lo largo de casi cien años, culminaron en su establecimiento. La ciencia acompaña normalmente a la vanguardia de la tecnología, de la que se vale para observar lo que antes era inalcanzable. Si establecemos una analogía con los descubrimientos geográficos, a América se llegó cuando las técnicas de navegación evolucionaron lo suficiente para permitir disponer de embarcaciones capaces de navegar mar adentro, así como de métodos de orientación y de cartografía adecuados para establecer una ruta a través del Atlántico. Del mismo modo, la primera partícula elemental, el electrón, se descubrió a finales del siglo XIX, cuando el electromagnetismo permitió estudiar fenómenos a escala atómica. A partir de entonces, el descubrimiento de nuevas partículas ha ido de la mano del progreso tecnológico y científico. Hoy en día, el modelo estándar es nuestro punto de referencia para el análisis de la física de partículas, al igual que a comienzos del siglo XX lo fue el electromagnetismo. Los experimentos punteros, como el LHC (Large Hadron Collider) del CERN, exploran nueva física a partir de señales interpretadas con las partículas e interacciones del modelo estándar.
La descripción del modelo estándar nos llevará a un fascinante viaje a través del desarrollo de la física moderna, en el que también podremos entender cuáles son los retos actuales a los que esta se enfrenta. Nuestro camino empieza con el descubrimiento de la primera partícula elemental inscrita en el modelo estándar: el electrón. La percepción de la materia como algo discontinuo, formado por unidades elementales o átomos, había permitido explicar no solo las reacciones químicas sino también las propiedades de los gases. Incluso, con el llamado número de Avogadro se podía saber cuántos átomos hay en una determinada cantidad de materia. Mientras tanto, el electromagnetismo no precisaba el origen de la carga eléctrica, aun cuando había proporcionado la tecnología para iluminar las ciudades. Su incorporación en las técnicas experimentales permitió especular sobre la estructura atómica e imaginar los átomos como entidades neutras formadas por dos tipos de carga. J.P. Thomson consiguió identificar la carga negativa como la portada por una partícula a la que llamó electrón y de la que estableció su relación carga/masa. Así pues, el electrón sería la primera partícula elemental descubierta. La posterior determinación de su carga (Millikan, 1922) permitió conocer su masa, la cual tiene un valor tan pequeño que cuesta imaginar que pudiera ser medido.
Un hito fundamental en la investigación del átomo fue el descubrimiento de la radiactividad. La radiación proporcionó a la experimentación proyectiles del tamaño adecuado para llegar a la estructura atómica. Así, Rutherford consiguió establecer un modelo atómico en el que la carga positiva se situaba en un diminuto núcleo muy masivo, mientras que la negativa ocupaba una corteza muy poco densa. A pesar de que Rutherford había identificado el protón a partir del átomo de hidrógeno y por su relación carga/masa, y aunque se sabía que era 1836 veces más pesado que el electrón, la masa del núcleo no coincidía con la de su número de protones (excepto en el hidrógeno). El protón no figura entre las partículas elementales pero, sin embargo, los tres tipos de radiación, alfa, beta y gamma, se explican por las tres interacciones contenidas en el modelo estándar: la fuerte (para la alfa), la débil (para la beta) y la electromagnética (para la gamma).
La hipótesis de cuantización de Planck permitió a Einstein explicar el efecto fotoeléctrico asignando a la radiación electromagnética las propiedades de una partícula: el fotón. Este fue el primero de los bosones del modelo estándar y el responsable de la interacción electromagnética. Bohr utilizó la misma hipótesis para explicar la estabilidad de los átomos al suponer que solo había un número discreto de órbitas en las que el electrón no absorbe ni emite energía, ya que, según el electromagnetismo clásico, un sistema de dos cargas girando una en torno a la otra produciría una emisión continua de radiación y no sería estable. En el caso del hidrógeno, la cuantización de las órbitas explicaba con éxito la discontinuidad de la radiación emitida, y el estudio detallado de las líneas espectrales introducía una propiedad más de carácter puramente cuántico: el espín. El espín sirve para clasificar las partículas, dividiéndolas en bosones o fermiones, según sea este un múltiplo entero o semientero de h (la constante de Planck): el fotón, de espín 1, es un bosón, mientras que el electrón, de espín 1/2, es un fermión.
El desarrollo de la teoría de la relatividad fue decisivo para comprender las reacciones nucleares. En las reacciones químicas, la conservación de la masa no se había cuestionado; sin embargo, en las reacciones nucleares la emisión de energía es mucho mayor, y la relación entre la masa y la energía de la teoría de Einstein (Emc2) debía ser tenida en cuenta en el balance energético. Considerando únicamente el protón y el electrón resultaría muy difícil explicar las reacciones nucleares, pues para conservar la energía era precisa una partícula neutra de masa similar a la del protón y espín 1/2. Esta fue descubierta por Chadwick en 1932, y se la denominó neutrón. Mediante el protón, el neutrón y el electrón, se entiende la estructura del átomo y se explican las reacciones nucleares, excepto la desintegración beta. Por otro lado, las formulaciones de la mecánica cuántica de Schrödinger y Heisenberg sirven para sistemas con velocidades moderadas (pequeñas, comparadas con la velocidad de la luz), tales como las de las partículas en los átomos, pero no para partículas con velocidades relativistas (próximas a la velocidad de la luz). Dirac, en 1928, formuló una ecuación que explicaba las propiedades de los fermiones en el régimen relativista, postulándose además que por cada fermión se supone la existencia de un antifermión, con idéntica masa pero con carga opuesta. Con ello se planteaba la existencia de una antipartícula del electrón, identificada en rayos cósmicos en 1932 por C. Anderson, a la que se denominó positrón. Este es uno de los ejemplos en los que la solución del problema precedía a su planteamiento, y no será el último que se nos presentará.
Hallados los componentes elementales del átomo, ¿qué nos hace pensar en otras partículas? Varias razones. En la desintegración beta estaba claro que los electrones salían del núcleo atómico, y no de la corteza donde se sitúa la carga negativa del átomo. Fermi, en 1934, la explicó como la conversión de un neutrón en un protón con la emisión de un electrón del núcleo; la no conservación del momento hizo postular a Pauli la existencia de una partícula desconocida, referida como neutrino, con espín 1/2 y una masa tan pequeña que le hizo pensar que nunca sería descubierta. Sin embargo, lo fue en 1953. Con los rayos cósmicos llegó una partícula con las mismas propiedades que las del electrón, pero mucho más pesada: el muon, descubierto en 1932. Hoy sabemos que esta partícula apareció «invitada» por la teoría de la relatividad, ya que su vida media es tan corta (2,2 millonésimas de segundo) que se desintegraría en la alta atmósfera, si no fuese porque desde el laboratorio terrestre es observada moviéndose a velocidades próximas a la de la luz, con lo que su vida media, medida en nuestro reloj, es varias veces superior a la que le corresponde en reposo.
Las partículas elementales podían ser producidas y aisladas fuera del átomo. El problema entonces (y aún ahora) era alcanzar la energía a la que pudiesen ser estudiadas. Los rayos cósmicos fueron durante mucho tiempo la única fuente de partículas elementales, y gracias a ellos se observaron partículas que no podían ser identificadas como atómicas (muones, piones…). Sin embargo, la detección y la energía de un rayo cósmico son por naturaleza aleatorias. En cambio, los aceleradores de partículas permiten la producción masiva y controlada que requiere el estudio de las propiedades de cada partícula. Cuando estos alcanzaron energías en torno a 1 GeV/c2 en la década de 1950 se observó tal número de partículas que no se sabía cómo clasificarlas. Por otro lado, la física había avanzado lo suficiente para combinar la cuantización de los fermiones de Dirac con la del campo electromagnético, a fin de formular la teoría más precisa de la física: la electrodinámica cuántica.
Hasta principios de la década de 1960, se intentaba buscar relaciones en un listado de partículas con denominaciones basadas en el griego clásico: leptones (ligeras) y hadrones (densas); los leptones incluyen al electrón mientras que los hadrones se dividen en bariones (pesados) de espín 1/2 y mesones (medios) de espín entero. Hubo intentos de considerar elementales todas ellas y buscar simetrías que relacionasen unas con otras; sin embargo, el modelo de quarks introducido por Gell-Mann y Zweig (1964) dejaba únicamente a los leptones, como el electrón y el neutrino, como elementales, mientras que los hadrones estarían formados por quarks: los mesones por dos y los bariones por tres. Con dos quarks, el up (u, con carga 2/3) y el down (d, con carga −1/3), se formaría un protón, de carga +1 (uud), y un neutrón, de carga 0 (udd). Los mesones estarían formados por parejas quark-antiquark, lo que explica su carga entera. De un modo análogo a la electrodinámica cuántica, que explicaba la interacción electromagnética mediante cargas eléctricas y fotones, la teoría del color o cromodinámica cuántica explicaría la interacción fuerte entre los quarks, atribuyéndoles una carga adicional, llamada color, y unos bosones denominados gluones.
Una teoría similar fue introducida independientemente por Glashow, Weinberg y Salam para explicar la interacción débil. En este modelo habría nuevos bosones, W+, W+, Z0, que interactuarían con parejas de quarks o de leptones. La desintegración débil se explicaba mediante el intercambio de un bosón W entre una pareja de quarks y otra leptón-neutrino, mientras que el intercambio del bosón Z0 predecía la interacción de las corrientes débiles neutras, descubiertas en 1973.
Hubiera sido deseable incorporar la gravedad en el modelo de las partículas, con fermiones y bosones que explicaran la fuerza gravitatoria, pero no se ha conseguido. Por tanto, no está contenida en el modelo estándar. De este modo, las interacciones conocidas son las tres de este modelo y la gravedad. La aparición de las masas de las partículas se explica mediante la interacción con un bosón (el llamado bosón de Higgs), el cual es a su vez responsable de la rotura de la simetría electrodébil, haciendo que la interacción débil sea de corto alcance por estar mediada por bosones muy pesados (los W y el Z0), mientras que la electromagnética es de largo alcance, porque es mediada por el fotón, cuya masa es estrictamente nula.
Con el establecimiento del modelo estándar, la teoría volvió a anteponerse al experimento prediciendo partículas que deberían aparecer al aumentar la energía de experimentación de los aceleradores de partículas. Así, en 1983 fueron observados los bosones W y Z0, en el CERN, en Suiza. El más pesado de los quarks, el top, se encontró diez años después en el Fermilab, Estados Unidos, y ha habido que esperar hasta el funcionamiento del LHC para encontrar el bosón de Higgs (2012), de nuevo en el CERN.
Actualmente, la física busca solución a problemas que no tienen cabida en el modelo estándar. Uno de ellos es el de la masa de los neutrinos, que en el modelo estándar es nula. Sin embargo, para explicar las observaciones de neutrinos es preciso dotarlos de masas diminutas. Por otro lado, los avances de la cosmología parecen indicar la existencia de la llamada materia oscura, la cual estaría compuesta por partículas neutras, pesadas y débilmente interactuantes para las que el modelo estándar no dispone de ningún candidato. Aun así, el éxito del modelo estándar es tan indiscutible que si se descubriera una teoría más general, esta debería incluirlo como su aproximación de baja energía. En la actualidad, la física de partículas dedica sus esfuerzos a la búsqueda de esta nueva teoría.
Durante el siglo XIX la química consiguió establecer que todas las sustancias están formadas por menos de un centenar de átomos diferentes. A finales del siglo la física concluyó que esos átomos no son indivisibles, sino que están construidos por «bloques» fundamentales. El primero en ser identificado fue el electrón.
Las primeras teorías de partículas son sin duda los modelos atómicos. Estos postulan que la materia está formada por unas unidades elementales microscópicas, cuyas propiedades explicarían la naturaleza de toda la materia. Los primeros modelos atómicos con fundamento empírico aparecieron a principios del siglo XIX, cuando la química había avanzado lo suficiente como para establecer que todas las sustancias son compuestos de menos de un centenar de elementos puros. Sin embargo, fue el desarrollo del electromagnetismo lo que permitió descubrir el electrón y clasificarlo con éxito como un componente común a todos los átomos. El electrón es el primero de los bloques del modelo estándar, y la electromagnética, una de las interacciones fundamentales. El descubrimiento de la radiactividad natural permitió llegar más lejos en la estructura de la materia, con el sorprendente hallazgo del núcleo atómico y la identificación del protón como portador de la carga positiva. Sin embargo, el estudio de las fuerzas nucleares requiere la introducción de nuevas teorías que expliquen la interacción nuclear, la cual no puede entenderse con las leyes de la física clásica. El modelo estándar de las interacciones fundamentales (ME) es la teoría aceptada en la actualidad para explicar la estructura de la materia. Para llegar a su formulación actual se ha recorrido un largo camino, donde lo que ha cambiado es, sobre todo, el concepto de lo que entendemos por materia y cómo lo percibimos.
El primer paso en la teoría de partículas es precisamente el suponer que la materia es discontinua, es decir, que una porción de una sustancia es un agregado de un gran número de unidades elementales a las que llegaríamos dividiendo sucesivamente la cantidad inicial. Las primeras teorías atómicas se atribuyen a los filósofos griegos del siglo V a.C., cuyo problema era explicar la naturaleza y sus cambios. En concreto, se considera pionero de la teoría atómica al filósofo Demócrito de Abdera (ca. 460 a.C.ca. 370 a.C.), por ser aquel cuya obra ha llegado hasta nuestros días. El problema de los filósofos naturalistas de la época de Demócrito era: «¿Por qué si la naturaleza está en continuo cambio, sigue existiendo y no acaba?». Su modelo atómico da respuesta a esa pregunta: la materia está hecha de átomos indivisibles e indestructibles cuyas combinaciones explican sus cambios y a su vez su permanencia. En su teoría de «partículas elementales» los bloques serían átomos indestructibles intercalados por espacios vacíos. El concepto de átomo que maneja esta teoría (sin entrar en la distinción entre átomo y molécula) es básicamente el mismo que en la actualidad: la unidad mínima de una sustancia; además, supone que los átomos de una misma sustancia son todos iguales, sólidos e indivisibles. La forma y propiedades que les atribuye se basan en las cualidades de la materia tal y como la perciben nuestros sentidos: los sólidos están formados por átomos pequeños y puntiagudos, los líquidos por átomos grandes y esféricos, los aceites por átomos delgados y resbaladizos.
La teoría atómica permaneció dentro del ámbito filosófico, sin ningún problema que la despertase, hasta que el desarrollo de la química en el siglo XIX volvió a plantear cómo deberían ser los átomos para explicar sus leyes. Para entonces ya se habían identificado muchos elementos puros y sus combinaciones, y además se habían establecido algunas de las leyes básicas de las reacciones químicas. La ley de conservación de la masa (postulada en 1785 por Antoine Lavoisier), según la cual la masa consumida de los reactivos es la misma que la masa obtenida de los productos, corrobora la percepción del átomo como unidad indestructible, mientras que las leyes que establecen que los reactivos en las reacciones químicas mantienen siempre las mismas proporciones (ley de las proporciones simples, por Joseph Louis Proust, en 1799, y ley de las proporciones múltiples, por John Dalton, en 1808) parecen indicar que los átomos son los bloques que se combinan en la reacción química para transformar unas sustancias en otras.
John Dalton, de cuyo nombre también deriva la palabra daltonismo por sus estudios sobre dicha patología que él mismo padeció, propuso un modelo atómico que constituye una «teoría de partículas elementales» para explicar las propiedades de la materia. Aunque el modelo de Demócrito también era una teoría para explicar el continuo cambio de las cosas, el de Dalton fue el primero basado en datos empíricos. Este modelo se basa en cinco principios:
La materia está formada por átomos que son indivisibles e indestructibles. Los átomos de un mismo elemento son idénticos en masa y propiedades. Los compuestos químicos se forman por combinación de dos o más tipos de átomos cuyas proporciones guardan relaciones numéricas sencillas. Los «átomos» de un determinado compuesto son, a su vez, idénticos en masa y propiedades. Una reacción química es una reagrupación de átomos. Los átomos no pueden crearse ni dividirse ni destruirse.Según el modelo atómico de Dalton, los pesos atómicos de un elemento se pueden referir al más ligero, el hidrógeno. Sin embargo, no tiene en cuenta la posible agrupación de átomos del mismo tipo, como ocurre por ejemplo en los gases que se presentan en forma de moléculas diatómicas, lo que le lleva a formular el agua como HO, en lugar de como H2O. El concepto de molécula fue introducido en 1811 por Amedeo Avogadro como el elemento constituyente de los gases. Su teoría molecular se basa en dos principios:
Todos los gases en las mismas condiciones de temperatura y presión contienen el mismo número de moléculas. Las moléculas se pueden dividir mediante las reacciones químicas.Los pesos moleculares de distintos gases se pueden comparar con solo medir su densidad. Por otro lado, la divisibilidad de las moléculas permitiría explicar las proporciones en volumen de hidrógeno y oxígeno en agua: dos volúmenes de H2 se combinan con uno de O2 para dar lugar a dos de agua. Gracias a este procedimiento consiguió determinar la composición de muchos otros compuestos.
Las hipótesis de Avogadro completan la teoría de Dalton, y con ellas se puede conocer, de modo relativo, el peso de cada átomo y el número de átomos que contiene una determinada porción de materia. Una cantidad de gramos igual al peso atómico de un elemento (un mol) debe contener el mismo número de átomos para cualquier sustancia (número de Avogadro, NA), por tanto podemos saber el peso relativo de cada átomo. Para estimar el peso individual se debería conocer el número de Avogadro. Usando métodos mecánico-estadísticos, Johann J. Loschmidt estableció, en 1865, el valor 72·1023 moléculas /mol que, aunque no muy preciso, es una buena indicación de las magnitudes atómicas (a principios del siglo XX, el cómputo directo de cargas eléctricas posibilitaría a Robert Millikan, en 1910, establecer un valor muy parecido al actual de NA=6,023·1023 moléculas/mol). Esos números son tan grandes que sería difícil imaginar tal cantidad de objetos de nuestro entorno. Por ejemplo, un mol de hidrógeno atómico pesaría un 1 g y, si colocásemos todos sus átomos en línea recta a 1 cm de distancia, llegaríamos de un extremo al otro del universo.
DEMÓCRITO
El peso es un concepto extrapolado de las cantidades de reactivos que intervienen en una reacción química. Sin embargo, como las reacciones químicas se producen átomo por átomo, se puede establecer el peso relativo de los átomos individuales: el más ligero es el hidrógeno y los demás se pueden medir comparándolos con este. Así, el oxígeno es 16 veces más pesado; el carbono, 12…
La organización de los elementos por pesos atómicos es el origen de la tabla periódica de Mendeléyev (1869), en la cual se observa que el orden por pesos atómicos lleva consigo una organización que agrupa a los elementos con características comunes. Hoy sabemos que las propiedades químicas de un elemento están determinadas por su número atómico, que se relaciona con el número de cargas positivas o negativas que contiene, y que para un mismo elemento pueden haber varios isótopos o átomos con distinto peso atómico, por lo que la afirmación de que todos los átomos de un mismo elemento son iguales debe ser matizada. Sin embargo, las propiedades químicas de las sustancias que nos rodean parecen corroborar la idea de que los átomos son los bloques fundamentales de su composición/estructura.
Como hemos visto, la idea de la materia formada por átomos indestructibles podía explicar las propiedades de las sustancias que nos rodean. Por muy distintos que los átomos puedan ser unos de otros, la química del siglo XIX no ofrecía ninguna evidencia experimental que indicase que estos tuvieran una estructura integrada por bloques más fundamentales (por ejemplo, una que permitiese que unos elementos se convirtiesen en otros, como soñaban los alquimistas).
El siguiente paso en la composición de la materia procede del electromagnetismo, cuando Joseph John Thomson identificó a finales del siglo XIX a los portadores elementales de la carga eléctrica, a los que buscó un lugar en los átomos, rompiendo así con la idea de su indivisibilidad.
Durante el siglo XIX, la teoría electromagnética avanzó muy deprisa, hasta quedar completamente formulada con las ecuaciones de James Clerk Maxwell, hacia 1862. Desde el lado práctico, sus aplicaciones cambiarían rápidamente el concepto de comunicación e incluso de vida urbana. Ejemplos de ello son: el telégrafo eléctrico, que comenzó a utilizarse comercialmente hacia 1840, y el fluido eléctrico, que en las últimas décadas del siglo XIX llegó a las ciudades para su uso en alumbrado y transporte público. En el terreno de la investigación, el uso de las técnicas derivadas del electromagnetismo propició el siguiente avance en el conocimiento de los componentes elementales de la materia: el descubrimiento del electrón. La conexión entre la electricidad y el átomo procede del estudio detallado de los tubos de descarga. Inventados en 1857 por el alemán Heinrich Geissler, son los antecesores de nuestros tubos de neón y de los tubos de rayos catódicos utilizados por los aparatos de rayos X y los antiguos monitores de televisión. El dispositivo consiste en una ampolla de vidrio cilíndrica con un gas enrarecido (sometido a una presión muy baja) y dos electrodos en su interior. Cuando se aplica una diferencia de potencial, se produce un flujo de corriente en el tubo capaz de ionizar el gas (conseguir átomos cargados eléctricamente debido a un exceso o defecto de electrones) e incluso las paredes del propio tubo, dando origen a una luz visible por fluorescencia del gas. La versión de ese tubo con un vacío más alto se denomina tubo de Crookes (figura 1), por ser William Crookes uno de sus desarrolladores entre 1869 y 1875. Con este tubo se producían unos rayos invisibles que se propagaban en línea recta desde el cátodo al ánodo, produciendo fluorescencia al chocar con las paredes del tubo.
Dibujo de un tubo de Crookes, construido por William Crookes hacia 1879. Contiene gas enrarecido a una presión entre 10−6 y 10−7 atmósferas. Cuando se aplica una diferencia de potencial de varios miles de voltios entre los electrodos (N y P) del tubo, se produce un flujo de electrones (rayos catódicos) desde el cátodo (N) en dirección al ánodo (P). La lámina metálica (e) dispone de una rendija que deja pasar un haz fino de rayos hacia el recinto (c, d). Debajo del tubo, se encuentra un imán de herradura que produce un campo magnético en dirección perpendicular al haz de rayos catódicos, haciendo que este se desvíe hacia la posición (g). Cuando se retira el imán los rayos siguen en línea recta, hacia la posición (f ). Con esto se demuestra que el rayo catódico está formado por partículas cargadas eléctricamente que experimentan la fuerza magnética del mismo modo que una corriente en un hilo conductor.
En el siglo XIX esta radiación invisible era un misterio. Si el tubo se complementa con una pantalla de sulfuro de cinc en su extremo, permite observar la desviación de los rayos en campos eléctricos y magnéticos (lo que ha sido, en esencia, el fundamento de los antiguos tubos de TV). La investigación con tubos de Crookes, como el de la figura 1, permitió a Wilhelm C. Röntgen descubrir los rayos X en 1895; sin embargo, fueron los experimentos de J.J. Thomson, entre 1895 y 1897, los que permitieron concluir que los rayos catódicos estaban formados por partículas materiales cargadas negativamente porque se dirigen del cátodo al ánodo. Thomson aumentó el vacío de un tubo de rayos catódicos y gracias a ello consiguió estudiar con precisión su deflexión en un campo eléctrico y otro magnético. La desviación en el campo magnético indica que los rayos catódicos están formados por partículas cargadas, a las que llamó electrones (1897). Además, de la medida del radio de curvatura de su desviación se pudo deducir la razón entre la carga eléctrica y la masa, e/m, de dichos rayos; como esta relación era siempre fija, se pudo atribuir a un tipo de partícula: los electrones.
El electrón, según Thomson, emanaba directamente del átomo y constituía un nuevo estado elemental de materia presente en todos los elementos químicos. Thomson elaboró un modelo atómico en el cual los átomos son esferas neutras que contendrían una pasta positiva con una carga igual a la negativa portada por los electrones, que se alojarían en ella a modo de uvas pasas en un pastel. Aunque el modelo atómico de Thomson no tuvo un largo recorrido, podemos considerar que identificó el primero de los bloques del ME.
Mientras que los experimentos de J.J. Thomson identificaban claramente a los portadores de carga negativa de los rayos catódicos y probaban su origen atómico, la identificación del portador elemental de la carga positiva aún se demoraría varias décadas. Los rayos que transportan cargas positivas, denominados rayos anódicos o canales, fueron descubiertos en 1886 por Eugen Goldstein. Los denominó rayos canales porque podían ser observados en un tubo de Crookes en cuyo cátodo se habían practicado unos orificios o canales de modo que permitiesen el paso de cargas positivas al ánodo. Al igual que en los rayos catódicos, la relación carga/masa de los rayos canales podía medirse mediante su desviación en campos eléctricos y magnéticos (la disposición de ambos campos para medir relaciones entre masas atómicas es el fundamento de un dispositivo denominado espectrómetro de masa). Sin embargo, en estos la relación carga/ masa no era fija y por ello no podían ser atribuidos a un solo tipo de partícula como los rayos catódicos. También esta relación dependía del tipo de gas contenido en el tubo y su precisa determinación con el espectrógrafo de masa permitió descubrir isótopos de un mismo elemento (átomos del mismo gas con distinta masa y por tanto con distinta relación carga/masa); por ejemplo, en 1913 J.J. Thomson encontró que el neón estaba formado por dos isótopos, el Ne-20 (neón-20) y el Ne-22 (neón-22). Mediante la técnica de rayos canales también se estudió el hidrógeno y se observó que su relación carga/masa era la más pequeña de los gases observados y unas 2000 veces mayor que la del electrón. Aun así los iones de hidrógeno no fueron identificados como bloques constituyentes de otros átomos hasta que la radiactividad fue aplicada con éxito al estudio de la estructura atómica, como veremos más adelante.
JOHN DALTON
Anteriormente hemos mencionado que en el gran avance de la química en el siglo XX no se había encontrado ninguna prueba de la conversión de unos elementos en otros como soñaban los alquimistas. Esto habría puesto de manifiesto la divisibilidad de los átomos y sería un indicio de estar compuestos por bloques más elementales, entre los que habría que buscar la carga positiva. Sin embargo, a finales del siglo se descubrió la radiactividad natural, cuyo estudio rompió con la idea de indestructibilidad de los átomos y aportó la clave para llegar a su estructura. La radiactividad fue descubierta en 1896 por Henri Becquerel cuando trabajaba con sales de uranio para estudiar la posible relación entre su fosforescencia y la emisión de los recién descubiertos rayos X. De un modo casual, Becquerel observó que las placas fotográficas aparecían impresionadas en presencia de las sales de uranio aunque estuviesen bien aisladas de la luz. Tras estudiar el fenómeno con varios minerales de uranio (fosforescentes y no fosforescentes) atribuyó el fenómeno a una radiación penetrante que emanaba de los propios átomos. El estudio de los minerales de uranio permitió a Marie Curie y Pierre Curie en el periodo entre 1898 y 1903 descubrir el polonio y el radio, cuya rápida desintegración ponía de manifiesto que los átomos de un elemento se podían descomponer en átomos más ligeros emitiendo radiación en el proceso. Por otro lado, estas radiaciones serían las fuentes de proyectiles apropiados para llegar al interior del átomo e informarnos sobre su estructura. Ernest Rutherford estudió la radiación desde sus orígenes y precisamente su aplicación en el estudio del átomo le dio la clave para explicar la estructura atómica (1911), y posteriormente, para identificar los bloques positivos de carga en el átomo o protones (1919). Las aportaciones de Rutherford a este proceso le han hecho acreedor del nombre de padre de la física nuclear.
LOS EXPERIMENTOS DE LA LÁMINA DE ORO
Los experimentos realizados en la Universidad de Manchester por Hans Geiger (1882-1945) y Ernest Marsden (1889-1970) entre 1908 y 1913, bajo la dirección de Ernest Rutherford, permitieron a este determinar la distribución de la carga eléctrica en el átomo. Tales experimentos se basaban en el lanzamiento de partículas α procedentes de una fuente conocida sobre una finísima lámina de oro (por lo que también se conocen como experimentos de la lámina de oro), y la observación de la desviación de sus trayectorias en una pantalla de sulfuro de cinc (ZnS), como indica la figura. Es impresionante el hecho de que este experimento requiere contar átomos ¡uno a uno! Esto es posible porque cada desintegración del elemento de la fuente (radio y sus descendientes) produce una partícula α, y como la actividad o número de desintegraciones por segundo del elemento fuente es conocida, se sabe el total de partículas que emana del haz. Las pocas partículas que se desvían son contadas con infinita paciencia por su destello fosforescente al impactar sobre el sulfuro de cinc.
Resultados reveladores
Si las cargas positivas y negativas estuviesen distribuidas en todo el átomo, como asume el modelo de Thomson, las partículas αatravesarían la lámina con una ligera desviación. Sin embargo, se observan desviaciones muy grandes, algunas mayores de 90º, muy difíciles de explicar aun como resultado del paso de la partícula por sucesivos átomos en su camino a través de la lámina. Rutherford atribuyó estas desviaciones a la presencia de un núcleo atómico compacto que contiene la carga positiva y casi toda la masa del átomo. Los electrones se moverían en órbitas alrededor de ese núcleo formando una corteza decenas de miles de veces mayor que este. Así pues, las partículas α pasarían sin desviación a través de átomos casi huecos excepto las pocas que topasen directamente con algún núcleo.
Tanto Joseph John Thomson (izquierda) como Ernest Rutherford hicieron grandes aportaciones a la física del átomo. Sin embargo, en la confrontación entre el modelo atómico del primero y el del segundo, fue este último quien logró aproximarse más a la realidad de la estructura atómica.
Experimento Geiger-Marsden o de la lámina de oro y el resultado esperado según la teoría atómica de Thomson (izquierda) y la de Rutherford (derecha), que explica el resultado observado. El experimento consiste en lanzar partículas α sobre una lámina de oro muy delgada. La pared del dispositivo está recubierta con sulfuro de cinc, de modo que las partículas dispersadas producen luminiscencia en el punto de impacto. Según el modelo de Thomson, el átomo estaría formado por una «pasta» positiva homogénea, con electrones dispersos (a modo de pastel de pasas), que frenaría las partículas α sin desviarlas. En cambio, el resultado observado obedece a la dispersión producida por un núcleo duro que contiene la carga positiva.
Así, los trabajos de Rutherford entre 1898 y 1899 sirvieron para identificar dos tipos de radiación en las emisiones de los minerales de uranio a las que denominó alfa (α) y beta (β). Ambas están formadas por partículas cargadas. La β es muy penetrante y pronto se estableció su analogía con los rayos catódicos. La α podía ser detenida por una hoja de papel y las partículas que la forman se identificarían años después como iones de helio. Paul Villard, en 1900, identificó un tercer tipo de radiación en las emisiones de los minerales de uranio que consistía en radiación electromagnética muy penetrante a la que posteriormente Rutherford denominó radiación gamma, γ. La radiación α proporcionó el proyectil adecuado para llegar a la estructura atómica y con ello descubrir la distribución de carga en los átomos, primer paso para identificar al protón como el bloque elemental portador de la carga positiva.
Rutherford consiguió determinar la distribución de la carga eléctrica en el átomo gracias a la interpretación de los experimentos que Hans Geiger y Ernest Marsden realizaron bajo su dirección entre 1908 y 1913 en la Universidad de Manchester. El modelo confeccionado por Rutherford a raíz de dichos experimentos dejaba patente la existencia de un núcleo atómico compacto, con carga positiva, el cual alberga casi toda la masa del átomo, y a partir de ese hallazgo tenemos que distinguir ya entre física atómica y nuclear. Según este modelo, los electrones giraban en órbitas alrededor del núcleo constituyendo una corteza muchísimo más grande que este. Sin embargo, el modelo de Rutherford no puede explicar satisfactoriamente el movimiento de los electrones en torno al núcleo con las leyes de la mecánica y el electromagnetismo clásico, según las cuales los electrones se mantienen en sus órbitas por la atracción electrostática del núcleo, al igual que los planetas describen órbitas debido a la atracción gravitatoria del Sol. Aunque el núcleo ejerza una fuerza central sobre los electrones, estos no pueden formar órbitas estables ya que, según la teoría electromagnética, emitirían energía en forma de radiación por estar acelerados. Esto resultaría en un progresivo acercamiento al núcleo, y por tanto en un átomo inestable. Este problema sería resuelto posteriormente por Niels Bohr aplicando la teoría cuántica a las órbitas de los electrones para explicar su estabilidad.
La relación entre la carga y la masa del núcleo seguía siendo un puzle muy difícil de resolver, puesto que la pieza que falta, el neutrón, no sería descubierto hasta mucho después, en 1932. Rutherford pensaba que la carga del núcleo era aproximadamente la mitad de su masa atómica. Sin embargo, fue Antonius van den Broek el primero en postular que la carga del núcleo se corresponde exactamente con su lugar en la tabla periódica (conocido como número atómico y representado por la letra Z) y es igual al número de electrones de su corteza. En 1913, Henry Moseley consiguió demostrarlo gracias a la interpretación de los espectros de emisión de rayos X de varios átomos excitados, es decir, aquellos cuyos electrones no se encuentran en su estado fundamental. La coincidencia del orden de los elementos en la tabla periódica con la carga de su núcleo explica el éxito de la tabla agrupando elementos con similares propiedades, dado que salvo algunas excepciones, como la del níquel y el cobalto, el orden establecido por peso atómico es el mismo que el del incremento de la carga del núcleo. Actualmente, la tabla periódica sigue el orden de la carga nuclear, con lo que el número atómico Z se identifica con el número de electrones de la corteza del átomo o el de la carga de su núcleo. Pero aun conociendo la carga total de un núcleo, la estructura de este es enigmática; el núcleo concentra toda la carga positiva a pesar de que la repulsión electrostática tendería a dispersarla y además la relación con su masa no está determinada, presentándose casos como el de los isótopos de un mismo elemento que incluso teniendo el mismo Z presentan distintas masas.
La identificación de un bloque positivo de carga elemental requiere saber algo más de la estructura del núcleo; las reacciones nucleares darían la respuesta definitiva al problema. El propio Rutherford en 1919 consiguió identificar al protón con el núcleo del átomo de hidrógeno al analizar la primera reacción nuclear artificialmente inducida, la producción de oxígeno al bombardear nitrógeno con partículas alfa:
14N+α→ 17O+p
A diferencia del electrón, que está «hecho de una sola pieza», por así decirlo, el protón y el neutrón están hechos de otras partículas.
donde los números 14 y 17 son las masas atómicas del nitrógeno y del oxígeno respectivamente. Esta reacción deja claro que, además de las tierras raras, los elementos comunes también pueden convertirse unos en otros como soñaron los alquimistas, y que el hidrógeno emanaba del núcleo atómico. Rutherford consideró al núcleo de hidrógeno como un bloque fundamental de la materia y lo denominó protón, basándose en la palabra griega protos, que significa «primero». Sin embargo, la cantidad de protones necesaria para explicar la carga del núcleo no es suficiente para explicar su masa. Este problema no se resolvería hasta el descubrimiento en 1932 del neutrón, una partícula neutra de masa similar a la del protón, al que acompaña en el núcleo atómico. El protón y el neutrón se denominan en general nucleones y su número total se identifica con la masa atómica, denotada como A. Por tanto, un núcleo contiene A nucleones, de los que una cantidad Z son protones, y el resto (A–Z), neutrones.
La identificación de los portadores elementales de carga con el protón y el electrón son una buena referencia de hasta dónde se pudo llegar en la identificación de partículas elementales usando los recursos de la mecánica y el electromagnetismo clásicos. En los sucesivos capítulos veremos cómo nuevas teorías han propiciado el descubrimiento de nuevas partículas e incluso predicho la existencia de otras aun antes de ser descubiertas. Hemos incluido al electrón entre las partículas del modelo estándar, pero sin embargo, los nucleones no pueden considerarse elementales. Si bien el electrón puede estimarse como un bloque (figura 2), el protón y el neutrón precisan de una estructura para poder explicar las fuerzas nucleares y, por consiguiente, la estabilidad del núcleo atómico.
La interpretación de la radiación electromagnética abrió las puertas a la mecánica cuántica, lo que permitió comprender la estructura del átomo y el comportamiento de las partículas que lo componen. Una propiedad cuántica, el espín, serviría para distinguir en el modelo estándar las partículas que integran la materia de aquellas asociadas a las interacciones.
El desarrollo del electromagnetismo cambió nuestro concepto de materia, convirtiendo las sustancias que nos rodean en agregados de partículas positivas y negativas. El electromagnetismo supuso una revolución tanto en la industria como en la ciencia. Su conocimiento permitió desarrollar las técnicas experimentales hasta el punto de poder medir cantidades de una pequeñez inimaginable. La formulación de la teoría electromagnética por Maxwell posibilitó el estudio de la radiación electromagnética, lo cual condujo al desarrollo de la mecánica cuántica, y su formulación matemática, a la teoría de la relatividad de Einstein.
Las expresiones matemáticas de las ecuaciones de Maxwell explican las variaciones espacio-temporales de los campos eléctrico y magnético. Las fuentes del campo eléctrico son las cargas eléctricas, mientras que el magnético solo se produce cuando estas están en movimiento. La teoría de Maxwell permite generalizar este concepto de un modo un poco más abstracto, sin que sea preciso mencionar las cargas eléctricas: la variación del campo eléctrico origina un campo magnético y viceversa. Así, los campos eléctricos y magnéticos pueden propagarse en ausencia de cargas en forma de ondas electromagnéticas. Una onda mecánica se produce por una vibración que se propaga, haciendo oscilar las partículas del medio material en el que la perturbación avanza. En el caso del campo electromagnético, la ecuación de onda resulta de la combinación de las ecuaciones de Maxwell. Las ondas son oscilaciones sincronizadas de los campos eléctrico y magnético que se propagan a una velocidad igual a la de la luz. Maxwell publicó su trabajo en 1865. Pocos años después, en 1886, Heinrich Hertz lograría producir y recoger estas ondas. No es necesario explicar lo que a corto y largo plazo esto ha significado para nuestras comunicaciones. Sin embargo, es preciso recalcar que la radiación permitió establecer la naturaleza electromagnética de la luz visible, la cual es una pequeña porción del espectro de radiación electromagnética. Las frecuencias pequeñas (longitudes de onda grandes) son la base de nuestras comunicaciones actuales, mientras que la interacción de la radiación de grandes frecuencias con la materia puso de manifiesto la cuantización de la energía. Por otro lado, existía el problema de la propagación de las ondas electromagnéticas, para lo cual se pensó en un medio al que se llamó éter y que estaría presente en todo el espacio interestelar. En el capítulo próximo hablaremos del éter y de cómo la teoría de la relatividad lo hace innecesario. Por el momento nos centraremos en la cuantización de la energía y sus consecuencias para el modelo estándar, entre las que destacamos la identificación del fotón y el descubrimiento del espín.
El concepto de cuantificación de la materia a partir de los átomos es algo intuitivo y pensado desde mucho antes de que el modelo atómico tomase bases científicas. Respecto a la cuantificación de la energía, el problema es diferente. La energía se mide a través de un trabajo que da cuenta de su transformación o paso de un estado a otro. Por ejemplo, hasta el siglo XIX se pensaba que el calor se propagaba por medio de un fluido llamado «calórico» que se introducía en los cuerpos calentándolos. El desarrollo de la termodinámica, con el establecimiento del equivalente mecánico térmico por James Prescott Joule en 1840, permitió entender la energía como un concepto general que puede tomar distintas formas. Sin embargo, no había ningún indicio de que la energía se propagase de manera discontinua, es decir, de una manera pulsada emitiendo corpúsculos elementales de energía.
En la primera década del siglo XX seguían abiertos algunos problemas relacionados con la interacción de la radiación con la materia, tales como el de los rayos X y el efecto fotoeléctrico, que las teorías clásicas no conseguían explicar. A estos problemas había que añadir la cuestión abierta de la estabilidad del átomo de Rutherford. Sin embargo, la primera aplicación de la hipótesis de cuantización de la energía aparece en un problema más cotidiano: la explicación de la emisión de radiación luminosa de un cuerpo a medida que aumenta su temperatura. El problema se conoce como el de la radiación de un cuerpo negro. El color de un cuerpo incandescente está relacionado con su temperatura; por ejemplo, a medida que se calienta un trozo de hierro, va tomando un color rojo que después se torna de un intenso blanco violeta. Una vez conocida la naturaleza electromagnética de la luz se podía aplicar dicha teoría para buscar la relación entre la frecuencia de la radiación emitida, que determina el color, y la temperatura del cuerpo emisor. Este problema era de gran relevancia en el tiempo en que comenzaban a utilizarse lámparas de incandescencia y se precisaba cuantificar su eficiencia. Por supuesto, para relacionar el color con la temperatura se precisa partir de un patrón de cuerpo negro. Un emisor ideal absorbe toda la radiación que recibe sin reflejar nada. Esto no es fácil, porque cualquier material cotidiano absorbe y emite energía, de modo que es muy difícil separar las frecuencias emitidas de las reflejadas, y además estas dependerían de la forma y la composición del cuerpo. Gustav Kirchhoff fue quien introdujo el nombre de cuerpo negro, y hacia 1860 propuso varias ideas de superficies que podrían comportarse como tales. Sin embargo, es muy difícil suprimir la reflexión con una sola superficie. Una buena aproximación de un cuerpo negro sería un recinto de paredes oscuras a modo de horno, tal que la radiación quede atrapada en la cavidad, y en el que a su vez, por una pequeña abertura, sea posible observar la radiación emitida a cada temperatura. El problema estuvo abierto durante varias décadas. Gracias al estudio del espectro de frecuencias de emisión se pudo establecer que para una temperatura determinada el máximo de energía se emite en un intervalo pequeño de frecuencias, es decir, se corresponde con un color determinado. Así se pudo establecer una relación entre el color del cuerpo y su temperatura, como se indica en la figura 1.