Y, como colofón, ese material sólido, superrígido, debería ser, al propio tiempo,
maleable, para no interponerse en el movimiento ni siquiera del más ínfimo planetoide,
ni entorpecer el más leve parpadeo.
Sin embargo, y pese a las dificultades planteadas por el concepto del éter, éste se
mostró muy útil. Faraday —quien, aunque no tenía antecedentes matemáticos, poseía
una admirable clarividencia— elaboró la noción de «líneas de fuerza» —líneas a lo
largo de las cuales un campo magnético desarrolla una potencia uniforme— y, al
considerarlas como distorsiones elásticas del éter, las empleó para explicar el
fenómeno magnético.
En la década de 1860, Clerk Maxwell, gran admirador de Faraday, se propuso elaborar
el análisis matemático que respaldara esas líneas de fuerza. Para ello ideó un simple
conjunto de cuatro ecuaciones, que describía casi todos los fenómenos referentes al
magnetismo y la electricidad. Tales ecuaciones, dadas a conocer en 1864, demostraron
no sólo la relación que existía entre los fenómenos referentes al magnetismo y la
electricidad, sino también su carácter inseparable. Allá donde existiese un campo
eléctrico, debería haber un campo magnético, y viceversa. De hecho había sólo «un
295
campo electromagnético». (Esto constituyó la original teoría de campo unificado que
inspiraría el trabajo seguido durante el próximo siglo.)
Al considerar la implicación de sus ecuaciones, Maxwell halló que un campo eléctrico
cambiante tenía que incluir un campo magnético cambiante que, a su vez, debía
inducir un campo eléctrico cambiante, etcétera, los dos jugando a la pídola, por así
decirlo, y el campo avanzaba hacia fuera en todas las direcciones. El resultado es una
radiación que posee las propiedades de una forma de onda. En resumen, Maxwell
predijo la existencia de una radiación electromagnética con frecuencias iguales a la que
el campo electromagnético crece y se desvanece.
A Maxwell le fue incluso posible calcular la velocidad a la que semejante onda
electromagnética podría moverse. Lo consiguió considerando la relación de ciertos
valores correspondientes en las ecuaciones que describen la fuerza entre cargas
eléctricas y la fuerza entre polos magnéticos. Esta relación demostró ser exactamente
igual a la velocidad de la luz, y Maxwell no pudo aceptarlo como una mera
coincidencia. La luz era una radiación electromagnética, y junto con la misma existían
otras radiaciones con longitudes de onda mucho más largas, o mucho más cortas que
las de la luz ordinaria, y todas esas radiaciones implicaban el éter.
Los monopolos magnéticos
Sin embargo, esos monopolos magnéticos habían sido buscados en vano. Cualquier
objeto —grande o pequeño, una galaxia o una partícula subatómica— que poseyese un
campo magnético, tenía un polo Norte y un polo Sur.
En 1931, Dirac, acometiendo el asunto de una forma matemática, llegó a la decisión de
que si los monopolos magnéticos existían (si existía siquiera uno en cualquier parte del
Universo), sería necesario que todas las cargas eléctricas fuesen múltiplos exactos de
una carga más pequeña, como en efecto así es. Y dado que todas las cargas eléctricas
son múltiplos exactos de alguna carga más pequeña, ¿no deberían en realidad existir
los monopolos magnéticos?
En 1974, un físico neerlandés, Gerard't Hooft, y un físico soviético, Alexandr Poliakov,
mostraron, independientemente, que podía razonarse, a partir de las grandes teorías
unificadas, que los monopolos magnéticos debían asimismo existir, y que debían
poseer una masa enorme. Aunque un monopolo magnético sería incluso más pequeño
que un protón, debería tener una masa que sería de 10 trillones a 10 cuatrillones
mayor que la del protón. Eso equivaldría a la masa de una bacteria comprimida en una
diminuta partícula subatómica.
Semejantes partículas sólo podían haberse formado en el momento de la gran
explosión. Desde entonces, no ha existido la suficientemente alta concentración de
energía necesaria para formarlas. Esas grandes partículas deberían avanzar a unos
225 kilómetros por segundo, más o menos, y la combinación de una enorme masa y
un pequeño tamaño le permitiría deslizarse a través de la materia sin dejar el menor
rastro de presencia. Esta propiedad debe tener algo que ver con el fracaso hasta hoy
en detectar monopolos magnéticos.
Sin embargo, si el monopolo magnético conseguía pasar a través de un cable (un
fenómeno bien conocido que Faraday demostró por primera vez; véase capítulo 5),
enviaría un flujo momentáneo de corriente eléctrica a través de dicho cable. Si el cable
se encontrase a temperaturas ordinarias, la sobretensión se produciría y desaparecería
con tanta rapidez que sería pasado por alto. Si fuera superconductor, la sobretensión
podría permanecer durante todo el tiempo en que el cable fuese mantenido lo
suficientemente frío.
El físico Blas Cabrera, de la Universidad de Stanford, montó un cable superconductor
de niobio, lo mantuvo aislado de los campos magnéticos perdidos y aguardó durante
cuatro meses. El 14 de febrero de 1982, a las 1.53 de la tarde, se produjo un flujo
repentino de electricidad, exactamente de la cantidad que cabría esperar si hubiese
pasado a su través un monopolo magnético. Los físicos están en la actualidad tratando
296
de ingeniar unos mecanismos que confirmen este hallazgo, pero, hasta que lo
consigan, no podremos estar seguros de que el monopolo magnético haya sido al fin
detectado.
Movimiento absoluto
Pero volvamos a ese éter que, en el momento culminante de su poderío, encontró
también su Waterloo como resultado de un experimento emprendido para comprobar
una cuestión clásica y tan espinosa como la «acción a distancia»: concretamente, el
problema del «movimiento absoluto».
Durante el siglo XIX quedó ya bien claro que el Sol, la Tierra, las estrellas y,
prácticamente, todos los cuerpos del Universo estaban en movimiento. ¿Donde
encontrar, pues, un punto inamovible de referencia, un punto que estuviera en
«reposo absoluto», para poder determinar el «movimiento absoluto», o sea, hallar el
fundamento de los axiomas newtonianos? Quedaba una posibilidad. Newton había
aducido que la propia trama del espacio (presuntamente, el éter) estaba en reposo, y,
por tanto, se podía hablar de «espacio absoluto». Si el éter permanecía inmóvil, tal vez
se podría especificar el «movimiento absoluto» de un objeto determinando su
movimiento en relación con el éter.
Durante le década de 1880, Albert Michelson ideó un ingenioso esquema para hacer
precisamente eso. Si la Tierra se movía a través de un éter inmóvil —razonó este
científico—, un rayo luminoso proyectado en la dirección de su movimiento, con la
consiguiente reflexión, recorrería una distancia menor que otro proyectado en ángulo
recto. Para realizar este experimento, Michelson inventó el «interferómetro», artificio
dotado con un prisma doble que dejaba pasar hacia delante la mitad de un rayo
luminoso y reflejaba la otra mitad en ángulo recto. Entonces, unos espejos reflejaban
ambos rayos sobre un ocular en el punto de partida. Si un rayo recorría una distancia
algo mayor que el otro, ambos llegaban desfasados y formaban bandas de
interferencia (fig. 8.3). Este instrumento mide con gran precisión las diferencias de
longitud: es tan sensible, que puede medir el crecimiento de una planta segundo a
segundo y el diámetro de algunas estrellas que parecen, incluso vistas a través del
mayor telescopio, puntos luminosos sin dimensión alguna.
297
Michelson se proponía apuntar el interferómetro en varias direcciones respecto al
movimiento terrestre, para detectar el efecto del éter midiendo el desfase de los rayos
disociados a su retorno.
En 1887, Michelson inició el experimento con ayuda del químico americano Edward
Williams Morley. Colocando el instrumento sobre una losa que flotaba en mercurio para
poderle dar cualquier orientación fácil y suavemente, los dos científicos proyectaron el
rayo en diversas direcciones tomando como referencia el movimiento de la Tierra. Y no
descubrieron diferencia alguna. Las bandas de interferencia se mantuvieron
invariables, aunque ellos apuntaron el instrumento en todas direcciones y repitieron
muchas veces el experimento. (Experimentos posteriores de la misma índole,
realizados con instrumentos más sensibles, han dado los mismos resultados
negativos.)
Entonces se tambalearon los fundamentos de la Física. Porque estaba claro que el éter
se movía con la Tierra —lo cual no tenía sentido— o no existía tal éter. La Física
«clásica» —la de Newton— notó que alguien estiraba de la alfombra bajo sus pies. No
obstante, la Física newtoniana siguió siendo válida en el mundo corriente: los planetas
siguieron moviéndose de acuerdo con sus leyes de gravitación, los objetos sobre la
Tierra siguieron obedeciendo sus leyes de inercia y de acción-reacción. Sólo ocurrió
que las explicaciones clásicas parecieron incompletas, y los físicos debieron prepararse
para escudriñar fenómenos que no acataban las «leyes» clásicas. Subsistirían los
fenómenos observados, tanto nuevos como antiguos, pero sería preciso ampliar y
especificar las teorías que los respaldaban.
El «experimento Michelson-Morley» tal vez sea la más importante experiencia
frustrada en toda la historia de la Ciencia. En 1907 se otorgó el premio Nobel de Física
a Michelson, primer científico norteamericano que recibió tal galardón.
RELATIVIDAD
Las ecuaciones de Lorentz-FitzGerald
En 1893, el físico irlandés George Francis FitzGerald emitió una hipótesis para explicar
los resultados negativos del experimento Michelson-Morley. Adujo que toda materia se
contrae en la dirección del movimiento, y que esa contracción es directamente
proporcional al ritmo del movimiento. Según tal interpretación, el interferómetro se
quedaba corto en la dirección del «verdadero» movimiento terrestre, y lo hacía
precisamente en una cantidad que compensaba con toda exactitud la diferencia de
distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos
medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían
ese mismo «escorzo». Parecía como si la explicación de FitzGerald insinuara que la
Naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento
absoluto, para lo cual introducía un efecto que anulaba cualquier diferencia
aprovechable para detectar dicho movimiento.
Este decepcionante fenómeno recibió el nombre de «contracción FitzGerald», y su
autor formuló una ecuación para el mismo. Un objeto que se moviera a 11 km/seg
(poco más o menos, la velocidad de nuestros más rápidos cohetes modernos)
experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en
el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería
sustancial. A unos 150.000 km/seg (la mitad de la velocidad de la luz), sería de un 15
%; a 262.000 km/seg (7/8 de la velocidad de la luz), del 50 %. Es decir, que una regla
de 30 cm que pasara ante nuestra vista a 262.000 km/seg, nos parecería que mide
sólo 15,24 cm..., siempre y cuando conociéramos algún método para medir su longitud
en pleno vuelo. Y la velocidad de la luz, o sea, 300.000 km/seg en números redondos,
su longitud, en la dirección del movimiento, sería cero. Puesto que, presuntamente, no
puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en
el vacío es la mayor que puede imaginarse en el Universo.
El físico holandés Hendrik Antoon Lorentz promovió la idea de FitzGerald. Pensando en
los rayos catódicos —que ocupaban su actividad por aquellos días—, se hizo el
298
siguiente razonamiento: Si se comprimiera la carga de una partícula para reducir su
volumen, aumentaría la masa de dicha partícula. Por consiguiente, una partícula
voladora, escorzada en la dirección de su desplazamiento por la contracción de
FitzGerald, debería crecer en términos de masa.
Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy
similar a la ecuación FitzGerald sobre el acortamiento. A 149.637 kilómetros por
segundo, la masa de un electrón aumentaría en un 15 %; a 262.000 km/ seg, en un
100 % (es decir, su masa se duplicaría); y a la velocidad de la luz, su masa sería
infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la
luz, pues, ¿cómo podría ser una masa mayor que infinita?
El efecto FitzGerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una
conexión tan estrecha que aparecieron a menudo agrupadas como las «ecuaciones
Lorentz-FitzGerald ».
Mientras que la contracción FitzGerald no podía ser objeto de mediciones, el efecto
Lorentz sobre masas sí podía serlo..., aunque indirectamente. La relación entre la
masa de un electrón y su carga se puede determinar midiendo su deflexión respecto a
un campo magnético. Al aumentar la velocidad de un electrón se acrecentaba la masa,
pero no había razón alguna para suponer que también lo haría la carga; por
consiguiente, su relación masa-carga debería aumentar. En 1900, el físico alemán W.
Kauffman descubrió que esa relación aumentaba con la velocidad, de tal forma que
señalaba un incremento en la masa del electrón, tal como predijeron las ecuaciones
Lorentz-FitzGerald.
Ulteriores y mejores mediciones demostraron la perfección casi total de las ecuaciones
de ambos.
Cuando aludamos a la velocidad de la luz como máxima velocidad, debemos recordar
que lo importante en este caso es la velocidad de la luz en el vacío (298.052 km/seg).
En los medios materiales transparentes la luz se mueve con más lentitud. Su velocidad
cuando atraviesa tales medios es igual a la velocidad en el vacío dividida por el índice
de refracción del medio. (El «índice de refracción» mide la desviación de un rayo
luminoso al penetrar oblicuamente en una materia desde el vacío.)
En el agua, con un índice de refracción 1,3 aproximadamente, la velocidad de la luz es
298.052 dividida por 1,3, o sea, 229.270 km/seg más o menos. En el cristal (índice de
refracción 1,5 aproximadamente), la velocidad de la luz es de 198.400 km/seg.
Mientras que en el diamante (índice de refracción, 2,4) alcanza sólo 124.800 km/seg.
La radiación y la teoría del cuanto de Planck
Es posible que las partículas subatómicas atraviesen un medio transparente
determinado a mayor velocidad que la luz (si bien no mayor que la luz en el vacío).
Cuando las partículas se trasladan así a través de un medio, dejan una estela de luz
azulada tal como el avión viajando a velocidades supersónicas deja un rastro sonoro.
La existencia de tal radiación fue descubierta, en 1934, por el físico ruso Paul
Alexeievich Cherenkov (se le suele llamar también Cerenkov); por su parte, los físicos
rusos Ilia Mijailovich Frank e Igor Yevguenevich Tamm expusieron una aclaración
teórica, en 1937. En consecuencia, todos ellos compartieron el premio Nobel de Física
en 1958.
Se han ideado detectores de partículas que captan la «radiación Cerenkov»; estos
«contadores Cerenkov» son útiles, en especial, para estudiar las partículas rápidas,
tales como las constitutivas de los rayos cósmicos.
Cuando se tambaleaban todavía los cimientos de la Física, se produjo una segunda
explosión.
299
Esta vez, la inocente pregunta que desencadenó el conflicto se relacionó con la
radiación emitida por la materia bajo la acción del calor. (Aunque dicha radiación suele
aparecer en forma de luz, los físicos denominan el problema «radiación de cuerpos
negros». Esto significa que ellos piensan en un cuerpo ideal capaz tanto de absorber
como de irradiar perfectamente la luz, es decir, sin reflejarla, como lo haría un cuerpo
negro.) El físico austríaco Josef Stefan demostró, en 1879, que la radiación total
emitida por un cuerpo dependía sólo de su temperatura (no de su sustancia), y que en
circunstancias ideales la radiación era proporcional a la cuarta potencia de la
temperatura absoluta: por ejemplo, si se duplica la temperatura absoluta, su radiación
total aumentará dieciséis veces («ley de Stefan»). También se supo que al elevarse la
temperatura, la radiación predominante derivaba hacia longitudes de onda más cortas.
Por ejemplo, si se calienta un bloque de acero, empieza a irradiar principalmente los
rayos infrarrojos invisibles, luego emite una luz roja apagada, a continuación roja
brillante, seguidamente anaranjada, amarillenta, y por último, si se logra evitar de
algún modo su vaporización en ese instante, blanca azulada.
En 1893, el físico alemán Wilhelm Wien ideó una teoría sobre la distribución de energía
en la radiación de los cuerpos negros, es decir, la cantidad de energía en cada área
delimitada por una longitud de onda. Brindó una fórmula que describía concisamente la
distribución de energía en la zona violeta del espectro, pero no en la roja. (Por su
trabajo sobre el calor recibió el premio Nobel de Física en 1911.) Por otra parte, los
físicos ingleses Lord Rayleigh y James Jeans elaboraron una ecuación que describía la
distribución en la zona roja del espectro pero fallaba totalmente en la zona violeta.
Recapitulando: las mejores teorías disponibles sólo pudieron explicar una mitad de la
radiación o la otra, pero no ambas al mismo tiempo.
El físico alemán Max Karl Ernst Ludwig Planck solventó el problema. Descubrió que
para hacer concordar tales ecuaciones con los hechos era preciso introducir una noción
inédita.
Adujo que la radiación se componía de pequeñas unidades o paquetes, tal como la
materia estaba constituida por átomos. Denominó «cuanto» o quantum a la unidad de
radiación (palabra latina que significa «¿cuánto?»). Planck alegó que la radiación
absorbida sólo podía ser un número entero de cuantos. Por añadidura, manifestó que
la cantidad de energía en un cuanto dependía de la longitud de onda de la radiación.
Cuanto menor fuera esa longitud, tanto mayor sería la fuerza energética del cuanto; o,
para decirlo de otra forma, la energía contenida en el cuanto es inversamente
proporcional a la longitud de onda.
Desde aquel momento se pudo relacionar directamente el cuanto con la frecuencia de
una determinada radiación. Tal como la energía contenida en el cuanto, la frecuencia
era inversamente proporcional a la longitud de onda de la radiación. Si ambas —la
frecuencia y la energía contenida en el cuanto— eran inversamente proporcionales a la
longitud de onda, los dos deberían ser directamente proporcionales entre sí. Planck lo
expresó con su hoy famosa ecuación:
e = hν
El símbolo e representa la energía del cuanto; ν (la letra griega nú), la frecuencia, y h,
la «constante de Planck», que da la relación proporcional entre cuanto, energía y
frecuencia.
El valor de h es extremadamente pequeño, lo mismo que el del cuanto. En realidad, las
unidades de radiación son tan ínfimas, que la luz nos parece continua, tal como la
materia ordinaria se nos antoja continua. Pero, hacia principios del siglo XX, la
radiación corrió la misma suerte que le había correspondido a la materia en los
comienzos del siglo XIX: hoy día se las reconoce a ambas como discontinuas.
Los cuantos de Planck esclarecieron la conexión entre temperatura y longitudes de
onda de radiaciones emitidas. Un cuanto de luz violeta era dos veces más enérgico que
un cuanto de luz roja y, naturalmente, se requería más energía calorífica para producir
cuantos violetas que cuantos rojos. Las ecuaciones sustentadas por el cuanto,
300
esclarecieron limpiamente la radiación de un cuerpo negro en ambos extremos del
espectro.
A su debido tiempo, la teoría de los cuantos de Planck prestaría aún un mayor servicio:
explicarían el comportamiento de los átomos, de los electrones en los átomos y de los
nucleones en los núcleos atómicos. Planck fue galardonado con el premio Nobel de
Física en 1918.
La teoría de la onda de partícula de Einstein
Al ser publicada en 1900 la teoría de Planck, causó poca impresión entre los físicos.
Era demasiado revolucionaria para recibir inmediata aceptación. El propio Planck
pareció anonadado por su propia obra. Pero, cinco años después, un joven físico
alemán residente en Suiza, llamado Albert Einstein, verificó la existencia de sus
cuantos.
Entretanto, el físico alemán Philipp Lenard había descubierto que cuando la luz
encontraba ciertos metales, hacía emitir electrones a la superficie metálica como si la
fuerza de la luz expulsara a los electrones del átomo. Ese fenómeno se denominó
«efecto fotoeléctrico» y, por su descubrimiento, Lenard recibió el premio Nobel de
Física en 1905. Cuando los físicos empezaron a experimentar con ello, observaron,
estupefactos, que si se aumentaba la intensidad lumínica, no se proporcionaba más
energía a los electrones expulsados. Pero el cambio de la longitud de onda luminosa
les afectaba: la luz azul, por ejemplo, les hacía volar a mayor velocidad que la luz
amarilla. Una luz azul muy tenue expulsaba menos electrones que una brillante luz
amarilla, pero aquellos electrones «azulados» se desplazaban a mayor velocidad que
cualquier electrón amarillo. Por otra parte, la luz roja, cualquiera que fuera su
brillantez, no podía expulsar ningún electrón de ciertos metales.
Nada de esto era explicable con las viejas teorías de la luz. ¿Por qué haría la luz azul
unas cosas que no podía hacer la luz roja?
Einstein halló la respuesta en la teoría de los cuantos de Planck. Para absorber
suficiente energía con objeto de abandonar la superficie metálica, un electrón
necesitaba recibir el impacto de un cuanto cuya magnitud fuera mínima hasta cierto
punto. En el caso de un electrón retenido débilmente por su átomo (por ejemplo, el
cesio), cualquier cuanto lo conseguiría, incluso uno de luz roja. Allá donde los átomos
retuvieran más enérgicamente a los electrones, se requerirían las luces amarilla o azul,
e incluso la ultravioleta. En cualquier caso, conforme más energía tuviera el cuanto,
tanta más velocidad proporcionaría al electrón que liberase.
Aquí se daba una situación donde la teoría de los cuantos explicaba un fenómeno físico
con absoluta simplicidad mientras que el concepto «precuanto» de la luz permanecía
inerme. Luego siguieron arrolladoramente otras aplicaciones de la mecánica cuántica.
Dostları ilə paylaş: |