Por su esclarecimiento del efecto fotoeléctrico (no por su teoría de la relatividad),
Einstein obtuvo el premio Nobel de Física en 1921.
En su Teoría especial de la relatividad —presentada el año 1905 y desarrollada en sus
ratos libres mientras trabajaba como perito técnico en la oficina suiza de patentes—
Einstein expuso una opinión fundamental inédita del Universo basándose en una
ampliación de la teoría sobre los cuantos. Adujo que la luz se trasladaba por el espacio
en forma cuántica (el «fotón»), y así hizo resucitar el concepto de la luz integrada por
partículas. Pero ésta era una nueva especie de partícula. Reunía las propiedades de
ondas y partículas, mostrando indistintamente unas u otras, según los casos.
Ello pudiera parecer una paradoja e incluso una especie de misticismo, como si la
verdadera naturaleza de la luz desbordara todo conocimiento imaginable. Sin embargo,
no es así. Para ilustrarlo con una analogía, digamos que el hombre puede ofrecer
muchos aspectos: marido, padre, amigo o negociante. Todo depende de su ambiente
momentáneo, y según sea éste, se comportará como marido, padre, amigo o
negociante. Sería improcedente que exhibiera su comportamiento conyugal con una
cliente o el comportamiento comercial con su esposa, y, de todos modos, ello no
301
implicaría un caso paradójico ni un desdoblamiento de personalidad.
De la misma forma, la radiación posee propiedades corpusculares y ondulatorias. En
ciertas condiciones resaltan las propiedades corpusculares; en otras, las ondulatorias.
Este carácter binario nos da una aclaración más satisfactoria que cualquier conjunto de
propiedades por separado.
Cuando se descubrió la naturaleza ondulatoria de la luz, se allanó el camino para los
sucesivos triunfos de la óptica decimonónica, incluyendo la espectroscopia. Pero este
descubrimiento exigió también que los físicos imaginaran la existencia del éter. Luego,
la teoría einsteniana partícula-onda mantuvo todas las victorias del siglo XIX (incluidas
las ecuaciones de Maxwell), pero estimó innecesario presuponer la existencia del éter.
La radiación podía trasladarse por el vacío en virtud de sus hábitos corpusculares, y
desde aquel instante se pudo enterrar la teoría del éter, teoría con la que acabara ya el
experimento Michelson-Morley.
Einstein introdujo una segunda idea trascendental con su Teoría especial de la
relatividad: la velocidad de la luz no varía jamás, cualquiera que sea el origen del
movimiento. Según el concepto newtoniano del Universo, un rayo luminoso procedente
de un foco en movimiento hacia el observador, se mueve más aprisa que otro
procedente de un foco que se aleja en dirección contraria. A juicio de Einstein, eso era
inexacto; y basándose en tal suposición consiguió derivar las ecuaciones Lorentz-
FitzGerald. Einstein demostró que el aumento de la masa con la velocidad —aplicado
por Lorentz sólo a las partículas cargadas— era aplicable a todo objeto conocido. Y,
ampliando su razonamiento, dijo que los aumentos de velocidad no sólo acortarían la
longitud y acrecentarían la masa, sino que también retrasarían el paso del tiempo: en
otras palabras, los relojes se retrasarían con el acortamiento de la vara medidora.
La teoría de la relatividad
Un aspecto fundamental de la teoría einsteniana fue la negación de la existencia de
«espacio absoluto» y «tiempo absoluto». Tal vez parezca descabellado a primera vista:
¿Cómo puede la mente humana escrutar lo que ocurre en el Universo si no tiene una
base de partida? Einstein repuso que todo cuanto necesitamos hacer es tomar una
«estructura de referencia» para poder relacionar con ella los acontecimientos
universales. Cualquier estructura de referencia (la Tierra inmóvil, el Sol inmóvil o, si a
mal no viene, nosotros mismos, inmóviles) sería válida; sólo nos restaba elegir aquélla
que nos pareciera más conveniente. Tal vez sea preferible, pero no más «verídico»,
calcular los movimientos en una estructura donde el Sol esté inmóvil, que en otra
donde la Tierra esté inmóvil.
Así, pues, las medidas de espacio y tiempo son «relativas» respecto a una estructura
de referencia elegida arbitrariamente..., y de aquí que se haya llamado a la idea
einsteniana «teoría de la relatividad».
Para ilustrar este punto, supongamos que estamos observando desde la Tierra una
extraño planeta («Planeta X»), una copia exacta del nuestro por su tamaño y masa
que pasa silbando ante nuestra vista a 262.000 km/seg en relación con nosotros. Si
pudiéramos medir sus dimensiones cuando pasa lanzado, descubriríamos que muestra
un escorzo del 50 % en la dirección de su movimiento. Sería un elipsoide más bien que
una esfera, y las mediciones adicionales nos dirían que parece tener dos veces más
masa que la Tierra.
Sin embargo, un habitante del Planeta X tendría la impresión de que él y su propio
mundo estaban imóviles. Él creería ver pasar la Tierra ante su vista a 262.000 km/seg
y se diría que tenía forma elipsoidal y dos veces la masa de su planeta.
Uno cae en la tentación de preguntar cuál de los dos planetas estaría realmente
escorzado y tendría doble masa, pero la única respuesta posible es ésta: ello depende
de la estructura de referencia. Y si la encontráis decepcionante, considerad que un
hombre es pequeño comparado con una ballena, pero grande al lado de un insecto.
¿Solucionaríamos algo preguntando si el hombre es realmente grande, o bien
302
pequeño?
Aunque sus consecuencias sean desusadas, la relatividad explica todos los fenómenos
conocidos del Universo, tan bien por lo menos como cualquiera otra teoría precedente.
Pero va aún más lejos: explica lúcidamente ciertos fenómenos que la visión
newtoniana no enfoca bien, o si acaso lo hace con muy pobres recursos. De resultas,
Einstein ha sido preferido a Newton, no como un relevo, sino más bien cual un
perfeccionamiento. La visión newtoniana del Universo es todavía utilizable a modo de
aproximación simplificada cuyo funcionamiento es aceptable para la vida corriente e
incluso la Astronomía ordinaria, tal como colocar satélites en órbita. Pero cuando se
trata de acelerar partículas en un sincrotrón, por ejemplo, comprendemos que es
preciso, si se quiere poner en marcha la máquina, hacer entrar en juego el
acrecentamiento einsteniano de la masa con la velocidad.
Espacio-tiempo y la paradoja del reloj
La visión einsteniana del Universo combinó tan profundamente el espacio y el tiempo
que cualquiera de los dos conceptos carecía de significado por sí solo.
El Universo es cuatridimensional, y el tiempo figura entre sus cuatro dimensiones (pero
sin comportarse como las dimensiones espaciales ordinarias de longitud, anchura y
altura). Frecuentemente se hace referencia a la fusión cuatridimensional con la relación
«espacio-tiempo». El matemático germano-ruso Hermann Minkowski, uno de los
maestros de Einstein, fue quien utilizó por primera vez esa noción en 1907.
Una vez promovidos los conceptos tiempo y espacio de extraños artificios en la
relatividad, otro aspecto de éste que suscita polémicas entre los físicos es la noción
einsteniana sobre el retraso de los relojes. Un reloj en movimiento —dijo él— marca el
tiempo con más lentitud que uno estacionario. A decir verdad, todos los fenómenos
que evolucionan con el tiempo lo hacen más lentamente cuando se mueven que
cuando están en reposo, lo cual equivale a decir que el propio tiempo se retrasa. A
velocidades ordinarias, el efecto es inapreciable, pero a 262.000 km/seg, un reloj
parecería (a un observador que lo viera pasar fugazmente ante sí) que tarda dos
segundos en marcar un segundo. Y, a la velocidad de la luz, el tiempo se paralizaría.
La dimensión «tiempo» es más perturbadora que las otras dos relacionadas con la
longitud y el peso. Si un objeto se reduce a la mitad de su longitud y luego recupera el
tamaño normal o su peso para volver seguidamente al peso normal, no dejará rastro
de ese cambio temporal y, por tanto, no puede haber controversia entre los criterios
opuestos.
Sin embargo, el tiempo es una cosa acumulativa. Por ejemplo, un reloj sobre el
planeta X parece funcionar a media marcha debido a la gran velocidad de traslación; si
lo mantenemos así durante una hora y luego lo llevamos a un lugar estático, su
maquinaria reanudará la marcha ordinaria pero habrá quedado una marca: ¡media
hora de retraso! Veamos otro ejemplo. Si dos barcos se cruzan y los observadores de
cada uno estiman que el otro se traslada a 262.000 km/seg y su reloj funciona a
media marcha, cuando las dos naves se crucen otra vez los observadores de cada una
pensarán que el reloj de la otra lleva media hora de retraso con respecto al suyo. Pero,
¿es posible que cada reloj lleve media hora de retraso con respecto al otro? ¡No! ¿Qué
pensar entonces? Se ha denominado a este problema «la paradoja del reloj».
Realmente no existe tal paradoja. Si un barco pasase cual un rayo ante el otro y las
tripulaciones de ambos jurasen que el reloj del otro iba retrasado, poco importaría
saber cuál de los dos relojes era «verdaderamente» el retrasado porque ambos barcos
se separarían para siempre. Los dos relojes no concurrirían jamás en el mismo lugar ni
a la misma hora para permitir una comprobación y la paradoja del reloj no se
plantearía nunca más. Ciertamente, la Teoría especial de la relatividad de Einstein es
aplicable tan sólo al movimiento uniforme, y por tanto aquí estamos hablando
únicamente de una separación definitiva.
Supongamos, empero, que los dos barcos se cruzasen nuevamente después del fugaz
303
encuentro y entonces fuese posible comparar ambos relojes. Para que sucediese tal
cosa debería mediar un nuevo factor: sería preciso que uno de los barcos acelerase su
marcha. Supongamos que lo hiciera el barco B como sigue: primero reduciendo la
velocidad para trazar un inmenso arco y orientarse en dirección de A, luego avanzando
aceleradamente hasta el encuentro con A. Desde luego, B podría considerarse en una
posición estacionaria, pues, teniendo presente su forma de orientarse, sería A el autor
de todo el cambio acelerado hacia atrás para encontrarse con B. Si esos dos barcos
fueran lo único existente en el Universo, la simetría mantendría viva ciertamente la
paradoja del reloj.
Ahora bien, A y B no son lo único existente en el Universo, y ello desbarata la simetría.
Cuando B acelera no toma solamente A como referencia, sino también el resto del
Universo. Si B opta por verse en posición estacionaria no debe considerar que
solamente A acelera respecto a él, sino también todas las galaxias sin excepción.
Resumiendo: es el enfrentamiento de B con el Universo. En tales circunstancias el reloj
atrasado será el de B, no el de A.
Esto afecta a las nociones sobre viajes espaciales. Si los astronautas se trasladaran a
la velocidad de la luz cuando abandonasen la Tierra, el transcurso de su tiempo sería
más lento que el del nuestro.
Los viajeros del espacio podrían alcanzar un destino remoto y regresar al cabo de una
semana —según lo entenderían ellos—, aunque verdaderamente habrían transcurrido
muchos siglos sobre la Tierra. Si el tiempo se retarda realmente con el movimiento,
una persona podrá hacer el viaje de ida y vuelta hasta una estrella distante. Pero,
desde luego, deberá despedirse para siempre de su propia generación y del mundo
que conoció, pues cuando regrese encontrará un mundo del futuro.
La gravedad y la teoría general de Einstein
En la Teoría especial de la relatividad, Einstein no abordó la gravitación. Trató ese
tema en su Teoría general de la relatividad, publicada el año 1915. Esta Teoría general
presentó un panorama insólito de la gravitación. Allí se la conceptuó como una
propiedad del espacio más bien que una fuerza actuando entre los cuerpos. La
presencia de materia hace curvarse al espacio, por así decirlo, y los cuerpos siguen la
línea de menor resistencia entre las curvas. Aunque la idea de Einstein parecía
sobremanera extraña, sirvió para explicar lo que no había logrado esclarecer la ley
newtoniana de la gravedad.
La ley de la gravedad de Newton se apuntó su mayor triunfo en 1846 con el
descubrimiento de Neptuno (véase capítulo 3).
Tras aquel hallazgo, la ley newtoniana de gravedad pareció irrefutable. ¡Nada podría
desvirtuarla! Sin embargo, quedó sin explicación cierto movimiento planetario. El
punto más cercano al Sol («perihelio») del planeta Mercurio cambiaba de un paso al
siguiente: no ocupaba nunca dos veces seguidas el mismo lugar en sus revoluciones
«anuales» alrededor del Sol. Los astrónomos sólo pudieron atribuir esa irregularidad a
las «perturbaciones» causadas en su órbita por la atracción de los planetas vecinos.
Ciertamente, durante los primeros trabajos con la ley de gravitación se había temido
hasta cierto punto que las perturbaciones ocasionadas por la atracción de un planeta
sobre otro pudieran desequilibrar algún día el delicado mecanismo del Sistema Solar.
Sin embargo, en las primeras décadas del siglo XIX el astrónomo francés Pierre-Simon
Laplace demostró que el Sistema Solar no era tan delicado como todo eso. Las
perturbaciones eran sin excepción cíclicas, y las irregularidades orbitales no
sobrepasaban nunca ciertos márgenes en cualquier dirección. El Sistema Solar parecía
ser estable a largo plazo, y los astrónomos estaban cada vez más convencidos de que
sería posible analizar todas las irregularidades específicas tomando en cuenta dichas
perturbaciones.
Sin embargo, esto no fue aplicable a Mercurio. Una vez presupuestas todas las
perturbaciones quedó todavía sin explicar la desviación del perihelio de Mercurio en
304
una cantidad equivalente a 43 segundos de arco cada siglo. Este movimiento,
descubierto por Leverrier en 1845, no representó gran cosa: dentro de 4.000 años
será igual a la anchura de la Luna. Pero sí fue suficiente para causar inquietud entre
los astrónomos.
Leverrier opinó que tal desviación podría ser ocasionada por algún planeta pequeño e
ignoto más próximo al Sol que Mercurio. Durante varias décadas, los astrónomos
buscaron el supuesto planeta (llamado «Vulcano»), y se presentaron numerosos
informes anunciando su descubrimiento. Pero todos los informes resultaron ser
erróneos. Finalmente se acordó que Vulcano era inexistente.
Entonces la Teoría general de la relatividad aportó la respuesta. Einstein demostró que
el perihelio de un cuerpo rotatorio debe tener cierto movimiento adicional aparte del
predicho por la ley newtoniana. Cuando se aplicó ese nuevo cálculo a Mercurio, la
desviación de su perihelio concordó exactamente con la fórmula general. Otros
planetas más distantes del Sol que Mercurio mostrarían una desviación de perihelio
progresivamente menor. El año 1960 se descubrió, estudiando la órbita de Venus, que
el perihelio avanzaba 8 segundos de arco por siglo aproximadamente; esta desviación
concuerda casi exactamente con la teoría de Einstein.
Pero aún fueron más impresionantes dos fenómenos insospechados que sólo habían
sido previstos por la teoría einsteiniana. Primero, Einstein sostuvo que un campo
gravitatorio intenso debe refrenar las vibraciones de los átomos. Ese refrenamiento se
manifestaría mediante un corrimiento de las rayas espectrales hacia el rojo
(«corrimiento de Einstein»). Escudriñando el firmamento en busca de un campo
gravitatorio suficientemente potente para ejercer tal efecto, los astrónomos pensaron
en las densas y blancas estrellas enanas. Analizaron el espectro de las enanas blancas
y encontraron ese corrimiento de las rayas espectrales.
La verificación del segundo pronóstico einsteiniano fue todavía más espectacular. Su
teoría decía que un campo gravitatorio hace curvarse los rayos luminosos. Einstein
calculaba que si un rayo de luz rozase la superficie solar se desviaría en línea recta
1,75 seg. de arco (fig. 8.4) ¿Cómo comprabarlo? Pues bien, si se observaran durante
un eclipse solar las estrellas situadas más allá del Sol, enfiladas con su borde, y se
compararan sus posiciones con las que ocupaban al fondo cuando el Sol no se
interponía, se evidenciaría cualquier desviación por la curvatura de la luz. El ensayo se
aplazó desde 1915, es decir, cuando Einstein publicara su tesis sobre la relatividad
general, hasta el fin de la Primera Guerra Mundial. En 1919, la Brítish Royal
Astronomical Society organizó una expedición para proceder al ensayo observando un
eclipse total visible desde la isla del Príncipe, una pequeña posesión portuguesa frente
a la costa de África Occidental. Y, en efecto, las estrellas se desviaron de su posición.
Una vez más se acreditó Einstein.
Con arreglo al mismo principio, si una estrella está directamente detrás de otra, la luz
de la estrella más distante contorneará a la más cercana, de tal modo que el astro más
lejano aparentará tener mayor tamaño. La estrella más cercana actuará cual una
«lente gravitatoria». Infortunadamente, el tamaño aparente de las estrellas es tan
diminuto que el eclipse de una estrella distante por otra mucho más cercana (visto
desde la Tierra) es sobremanera raro. Sin embargo, el descubrimiento de los cuasares
proporcionó a los astrónomos otra oportunidad. A principios de los años 1980,
detectaron unos cuasares dobles cada miembro de los cuales poseía exactamente
idéntica propiedad. Constituía una razonable suposición el que estemos viendo un solo
305
cuasar con su luz distorsionada por una galaxia (o posiblemente un agujero negro),
que existe en la línea de la visión pero que es invisible para nosotros. La imagen del
cuasar está distorsionada y la hace aparecer doble. (Una imperfección en el espejo
tendría el mismo efecto sobre nuestra imagen reflejada.)
Comprobando la Teoría general
Los tres grandes triunfos de la teoría general einsteiniana, fueron todos de naturaleza
astronómica. Los científicos buscaron afanosamente algún medio para comprobarlos en
el laboratorio donde ellos pudieran hacer variar a voluntad las condiciones requeridas.
La clave para semejante demostración de laboratorio surgió en 1958 cuando el físico
alemán Rudolf Ludwig Móssbauer demostró que en ciertas condiciones un cristal puede
irradiar rayos gamma cuya longitud de onda queda definida específicamente. Y un
cristal similar al emisor, puede absorber los rayos gamma de esa longitud de onda. Si
los rayos gamma difirieran levemente por su longitud de onda de aquéllos emitidos
naturalmente por el cristal, el otro cristal no los absorbería. Esto es lo que se llama el
«efecto Móssbauer».
Si esa emisión de rayos gamma sigue una dirección de arriba abajo para caer con la
gravedad, ganará energía —según prescribe la Teoría general de la relatividad— de tal
modo que su longitud de onda se acortará. Al caer unos cuantos centenares de
centímetros adquirirá suficiente energía para el decrecimiento en la longitud de onda
de los rayos gamma, aunque esa disminución debe ser muy reducida, pues la onda
necesita conservar suficiente amplitud con el fin de evitar que el cristal absorbente siga
absorbiendo el rayo.
Por añadidura, si el cristal emisor de rayos gamma se mueve hacia arriba durante este
proceso, el efecto de Doppler-Fizeau acrecentará la longitud de onda de los rayos
gamma. Entonces se ajustará la velocidad del cristal ascendente para neutralizar el
efecto de gravitación sobre el rayo gamma descendente, y de resultas éste será
absorbido por el cristal sobre cuya superficie incide.
Tales experimentos realizados en 1960 más el empleo ulterior del efecto Móssbauer,
confirmaron la Teoría general con suma precisión. Constituyeron la demostración más
impresionante conocida hasta ahora de su velidez; como consecuencia de ello se
otorgóo el premio Nobel de Física a Móssbauer en 1961.
Otras delicadas mediciones también tienden a apoyar la relatividad general: el paso de
los rayos del radar por un planeta, la conducta de los pulsares binarios mientras giran
en torno de un centro mutuo de gravedad, etc. Todas las mediciones son dudosas y los
físicos han realizado numerosos intentos de sugerir teorías alternativas. No obstante,
de todas las teorías sugeridas, la de Einstein es la más simple desde un punto de vista
matemático. Cualesquiera que sean las mediciones que se efectúen para distinguir
entre las teorías (y las diferencias son siempre mínimas), las mismas parecen apoyar
la de Einstein. Después de casi tres cuartos de siglo, la teoría general de la relatividad
sigue inconmovible, aunque los científicos continúen (muy apropiadamente) poniéndola
en tela de juicio. (No se preocupen, es la teoría general la que es puesta en tela de
juicio. La teoría especial de la relatividad ha sido comprobada una y otra vez, de
formas tan variadas, que no existe ningún físico que la ponga en tela de juicio.)
CALOR
Hasta este punto del capítulo he dejado al margen un fenómeno que usualmente
acompaña a la luz en nuestras experiencias cotidianas. Casi todos los objetos
luminosos, desde una estrella hasta una vela, desprenden calor junto con la luz.
Medición de la temperatura
Antes de los tiempos modernos no se estudiaba el calor, si se exceptúa el aspecto
cualitativo. A una persona le bastaba con decir «hace calor», o «hace frío», o «esto
está más caliente que aquello». Para someter la temperatura a una medición
cuantitativa fue necesario, ante todo, encontrar algún cambio mensurable que
306
pareciera producirse regularmente con los cambios de temperatura. Se encontró esa
variación en el hecho de que las sustancias se dilatan con el calor y se contraen con el
frío.
Galileo fue quien intentó por primera vez aprovechar tal hecho para observar los
cambios de temperatura. En 1603 invirtió un tubo de aire caliente sobre una vasija de
agua. Cuando el aire en el tubo se enfrió hasta igualar la temperatura de la habitación
dejó subir el agua por el tubo, y de este modo consiguió Galileo su «termómetro» (del
griego thermes y metron, «medida del calor»). Cuando variaba la temperatura del
aposento cambiaba también el nivel de agua en el tubo. Si se caldeaba la habitación, el
aire en el tubo se dilataba y empujaba el agua hacia abajo; si se la enfriaba, el aire se
contraía y el nivel del agua ascendía. La única dificultad fue que aquella vasija de agua
donde se había insertado el tubo, estaba abierta al aire libre y la presión de éste era
variable. Ello producía ascensos y descensos de la superficie líquida, es decir,
variaciones ajenas a la temperatura que alteraban los resultados.
En 1654, el gran duque de Toscana, Fernando II, ideó un termómetro independiente
de la presión atmosférica. Este aparato contenía un líquido en una ampolla a la cual se
unía un tubo recto. La contracción y dilatación del propio líquido señalaba los cambios
de temperatura. Los líquidos cambian de volumen con la temperatura mucho menos
que los gases, pero si se emplea la cantidad justa de líquido para llenar una ampolla,
de modo que el líquido sólo pueda dilatarse a lo largo de un tubo muy estrecho, los
ascensos y descensos dentro de ese tubo pueden ser considerables incluso para
ínfimos cambios de volumen.
El físico inglés Robert Boyle hizo algo muy parecido sobre la misma cuestión, y fue el
primero en demostrar que el cuerpo humano tiene una temperatura constante
bastante superior a la del medio ambiente. Otros probaron que bajo una temperatura
fija se producen siempre fenómenos físicos concretos. Cuando aún no había terminado
el siglo XVII se comprobó esa verdad en el caso del hielo derretido y el agua hirviente.
Los primeros líquidos empleados en termometría fueron el agua y el alcohol. Dado que
el agua se hiela tan pronto y el alcohol hierve con tanta facilidad, el físico francés
Guillaume Amontons recurrió al mercurio. En su aparato, como en el de Galileo, la
expansión y contracción del aire causa que el mercurio ascienda o descienda.
Por fin, en 1714, el físico alemán Gabriel Daniel Fahrenheit combinó las investigaciones
del gran duque y de Amontons introduciendo mercurio en un tubo y utilizando sus
momentos de dilatación y contracción como inicadores de la temperatura. Fahrenheit
incorporó al tubo una escala graduada para poder apreciar la temperatura bajo el
aspecto cuantitativo.
Se ha argumentado no poco sobre el método empleado por Fahrenheit para establecer
su escala particular. Según algunos, asignó el cero a la temperatura más baja que
pudo crear en su laboratorio mezclando sal y hielo. Sobre esa base fijó la solidificación
del agua a 32° y la ebullición a 212°. Esto ofreció dos ventajas: primera, el margen de
temperatura donde el agua se mantiene en estado líquido era de 180°, el cual parece
un número natural para su uso en conexión con los «grados». (La medida en grados
del semicírculo.) Segunda, la temperatura del cuerpo se aproximaba a los 100°;
aunque para ser exactos es, normalmente, de 98,6° Fahrenheit.
Ordinariamente, la temperatura del cuerpo es tan constante que si sobrepasa en un
grado o dos el nivel normal se dice que el cuerpo tiene fiebre y, por tanto, muestra
síntomas evidentes de enfermedad. En 1858, el médico alemán Karl August
Wunderlich implantó las frecuentes comprobaciones de la temperatura corporal como
nuevo procedimiento para seguir el curso de una enfermedad. En la década siguiente,
el médico británico Thomas Clifford Allbutt inventó el «termómetro clínico» cuyo
estrecho tuvo lleno de mercurio tiene un estrangulamiento en la parte inferior. El
mercurio se eleva hasta las cifras máximas cuando se coloca el termómetro dentro de
la boca, pero no desciende al retirarlo para leer la temperatura. El hilo de mercurio se
divide simplemente por el estrangulamiento, dejando fija la porción superior para una
lectura constante. En Gran Bretaña y los Estados Unidos se emplea todavía la escala
307
Fahrenheit y están familiarizados con ella en todas las observaciones cotidianas, tales
como informes meteorológicos y utilización de termómetros clínicos.
Sin embargo, en 1742 el astrónomo sueco Anders Celsius adoptó una escala diferente.
En su forma definitiva, este sistema estableció el punto O para la solidificación del
agua y el 100 para la ebullición. Con arreglo al margen de división centesimal donde el
agua conserva su estado líquido, se denominó a esta escala, «centígrada», del latín
centum y gradus, significando «cien peldaños». Casi todas las personas hablan de
«grados centígrados» cuando se refieren a las medidas de esta escala, pero los
científicos rebautizaron la escala con el nombre del inventor —siguiendo el precedente
Fahrenheit— en una conferencia internacional celebrada el año 1948. Oficialmente,
pues, se debe hablar de «escala Celsius» y «grados Celsius». Todavía se conserva el
signo «C». Entretanto, la escala «Celsius» ha ganado preponderancia en casi todo el
mundo civilizado. Los científicos, en particular, encuentran muy conveniente esta
escala.
Las dos teorías del calor
La temperatura mide la intensidad del calor pero no su cantidad. El calor fluye siempre
desde un lugar de altas temperaturas hacia un lugar de bajas temperaturas, hasta que
ambas temperaturas se igualan, tal como el agua fluye de un nivel superior a otro
inferior hasta que se equilibran los dos niveles. Eso es válido, cualesquiera que sean
las cantidades relativas de calor contenidas en los cuerpos. Aunque una bañera de
agua tibia contenga mucho más calor que una cerilla encendida, si metemos la cerilla
en el agua, el calor fluye de la cerilla hacia el agua y no al contrario.
Joseph Black, quien hizo un importante estudio sobre los gases (véase capítulo 5), fue
el primero en establecer la distinción entre temperatura y calor. En 1760 anunció que
varias sustancias daban temperaturas diferentes cuando se les aplicaba la misma
cantidad de calor. El elevar en un grado Celsius la temperatura de un gramo de hierro
requería tres veces más calor que el calentar en la misma proporción un gramo de
plomo. Y el berilio necesitaba tres veces más calor que el hierro.
Por añadidura, Black demostró la posibilidad de introducir calor en una sustancia sin
elevar lo más mínimo su temperatura. Cuando se calienta el hielo, éste se derrite
lentamente, desde luego, pero no hay aumento de temperatura. A su debido tiempo, el
calor liquidará todo el hielo, pero la temperatura del hielo no rebasa jamás los 0°. Lo
mismo ocurre en el caso del agua hirviente a 100° C. Cuando el calor se transmite al
agua, ésta escapa en cantidades cada vez mayores en forma de vapor, pero la
temperatura del líquido no varía.
El invento de la máquina de vapor (véase capítulo 9), coincidente más o menos con los
experimentos de Black, sirvió para que los científicos sintieran más interés hacia el
calor y la temperatura. Muchos empezaron a cavilar especulativamente sobre la
naturaleza del calor, tal como lo hicieran sobre la naturaleza de la luz.
En ambos casos —calor y luz— hubieron dos teorías. Una mantuvo que el calor era una
sustancia material que podía verterse o transmitirse de una sustancia a otra. Se la
denominó «calórico» del latín caloris, «calor». Según este criterio, cuando la madera
arde, su calórico pasa a la llama, y de ésta a la olla sobre la llama, y de ahí al agua
dentro de la olla. Cuando el agua se llena de calórico, se convierte en vapor.
Hacia fines del siglo XVIII dos famosas observaciones dieron nacimiento a la teoría de
que el calor es una forma de vibración. Una fue publicada por el físico y aventurero
americano Benjamin Thompson, un tory que abandonó el país durante la Revolución,
se ganó el título de conde de Rumgord, y luego vagabundeó por toda Europa. En el
año 1798, cuando se hallaba un momento inspeccionando la limpieza de unos cañones
en Baviera, percibió que se producían grandes cantidades de calor. Calculó que allí se
generaba suficiente calor para hacer hervir dieciocho libras de agua en menos de tres
horas. ¿De dónde procedía todo ese calórico? Thompson decidió que debía ser una
vibración provocada e intensificada por la fricción mecánica de la baqueta contra el
ánima.
308
Al año siguiente, el químico Humphrey Davy realizó un experimento más significativo
todavía. Manteniendo dos trozos de hielo bajo el punto de congelación los frotó uno
con otro, no a mano, sino mediante un artificio mecánico de modo que ningún calórico
pudiera transmitirse al hielo. La mera fricción bastó para derretir parte del hielo. Él
llegó también a la conclusión de que el calor debía ser una vibración y no una materia.
Realmente, aquel experimento debiera haber sido determinativo, pero la teoría del
calórico, aunque errónea a todas luces, subsistió hasta mediados del siglo XIX.
El calor como energía
No obstante, y aun cuando se desfiguró la naturaleza del calor, los científicos
puntualizaron algunos hechos importantes sobre él, tal como los investigadores de la
luz habían revelado interesantes facetas sobre la reflexión y la refracción de los rayos
luminosos antes de desentrañar su naturaleza. Jean-Baptiste-Joseph Fourier y
Nicholas-Léonard Sadi Carnot estudiaron en Francia el flujo del calor y dieron
importantes pasos adelante. De hecho se considera generalmente a Carnot como el
padre de la «termodinámica» (del griego therme y dynamiké, «movimiento del calor»).
Él proporcionó un firme fundamento teórico al funcionamiento de las máquinas de
vapor.
Carnot realizó su tarea en la década de 1820 a 1830. Hacia 1840, los físicos se
interesaron por dos cuestiones acuciantes: ¿Cómo aprovechar el calor transformado en
vapor para hacerle realizar el trabajo mecánico de mover un pistón? ¿Habría algún
límite para la cantidad de trabajo que pudiera obtenerse de una cantidad determinada
de calor? ¿Y qué pasaba con el proceso inverso? ¿Cómo convertir el trabajo en calor?
Joule pasó treinta y cinco años transformando diversas clases de trabajo en calor,
haciendo con sumo cuidado lo que Rumford había hecho antes muy a la ligera. Midió la
cantidad de calor producida por una corriente eléctrica. Calentó agua y mercurio
agitándolo con ruedas de paletas o haciendo entrar el agua a presión en estrechos
tubos. Calentó el aire comprimiéndolo, y así sucesivamente. En cada caso calculó
cuánto trabajo mecánico se había realizado con el sistema y cuánto calor se había
obtenido como resultado. Entonces descubrió que una cantidad determinada de
trabajo, cualquiera que fuese su clase, producía siempre una cantidad determinada de
calor, lo cual se denominaba «equivalente mecánico del calor».
Puesto que se podía convertir el calor en trabajo, justo era considerarlo como una
forma de «energía» (del griego enérgueia, «que contiene trabajo»). Electricidad,
magnetismo, luz y movimiento eran aplicables al trabajo y por tanto también formas
de energía. Y el propio trabajo, al ser transformable en calor, era asimismo una forma
de energía.
Todo ello hizo resaltar lo que se había sospechado más o menos desde los tiempos de
Newton: a saber, que la energía se «conservaba», y que no era posible crearla ni
destruirla. Así, pues, un cuerpo móvil tiene «energía cinética» («energía del
movimiento») término introducido por Lord Kelvin en 1856. Puesto que la gravedad
frena el movimiento ascendente de un cuerpo, la energía cinética de éste desaparece
lentamente. Sin embargo, mientras el cuerpo pierde energía cinética, gana energía de
posición, pues, en virtud de su elevada situación sobre la superficie terrestre, tiene
posibilidades de caer y recuperar la energía cinética. En 1853, el físico escocés William
John Macquorn Rankine denominó «energía potencial» a esa energía de posición. Al
parecer, la energía cinética de un cuerpo más su energía potencial (su «energía
mecánica») permanecían casi invariables durante el curso de su movimiento, y
entonces se llamó a este fenómeno «conservación de la energía mecánica». Sin
embargo, la energía mecánica no se conservaba perfectamente. Siempre había
pérdidas con la fricción, la resistencia al aire, etcétera.
Lo que el experimento de Joule demostró por encima de todo fue que semejante
conservación sería exacta cuando el calor se tomase en cuenta puesto que, cuando la
energía mecánica se pierde en fricción o por resistencia del aire, aparece como calor.
Si tomamos en cuenta el calor, se puede mostrar, sin cualificación, que no se crea una
nueva energía y que no se destruye ninguna energía antigua. El primero en dejar esto
309
claro fue un físico alemán, Julius Robert Mayer, en 1842, pero su respaldo
experimental fue reducido y carecía de unos importantes credenciales académicos.
(Incluso Joule, que era cervecero de profesión y que carecía asimismo de títulos
académicos, tuvo dificultades para ver publicado su meticuloso trabajo.)
No fue hasta 1847 cuando una suficientemente respetable figura académica dio
contenido a esa noción. En dicho año, Heinrich von Helmholtz enunció la ley de la
conservación de la energía: siempre que una cantidad de energía parezca desaparecer
de un lugar, una cantidad equivalente aparecerá en otro sitio. A esto se le llamó
también la primera ley de la termodinámica. Sigue siendo un poderoso cimiento de la
física moderna, al que no afectan ni la teoría de los cuantos ni la relatividad.
Ahora bien, aunque sea posible convertir en calor cualquier forma de trabajo, no puede
darse el proceso inverso. Cuando el calor se transforma en trabajo, una parte de él es
inservible y se pierde irremisiblemente. Al hacer funcionar una máquina de vapor, el
calor de éste se transforma en trabajo solamente cuando la temperatura del vapor
queda reducida a la temperatura del medio ambiente; una vez alcanzado ese punto ya
será posible convertirlo en trabajo, aunque haya todavía mucho calor remanente en el
agua fría formada por el vapor. Incluso al nivel de temperatura donde sea posible
extraer trabajo, una parte del calor no trabajará, sino que se empleará para caldear la
máquina y el aire circundante, para superar la fricción entre pistones y cilindros,
etcétera.
En toda conversión de energía —por ejemplo, energía eléctrica en energía luminosa,
energía magnética en energía cinética— se desperdicia parte de la energía. Pero no se
pierde; pues ello desvirtuaría la primera ley. Sólo se convierte en calor que se dispersa
por el medio ambiente.
La capacidad de cualquier sistema para desarrollar un trabajo se denomina «energía
libre». La cantidad de energía que se pierde inevitablemente como energía
inaprovechable se refleja en las mediciones de la «entropía», término creado en 1850
por el físico alemán Rudolf Julius Emmanuel Clausius.
Clausius indicó que en cualquier proceso relacionado con el flujo de energía hay
siempre alguna pérdida, de tal forma que la entropía del Universo aumenta sin cesar.
Este continuo aumento entrópico constituye la «segunda ley de la termodinámica».
Algunas veces se ha aludido a ella asociándola con los conceptos «agotamiento del
Universo» y «muerte calorífica del Universo». Por fortuna, la cantidad de energía
aprovechable (facilitada casi enteramente por las estrellas, que, desde luego, «se
desgastan» a un ritmo tremendo) es tan vasta que resultará suficiente para todos los
propósitos durante muchos miles de millones de años.
Calor y movimiento molecular
Finalmente, se obtuvo una noción clara sobre la naturaleza del calor con la noción
sobre la naturaleza atómica de la materia. Se fue perfilando cuando los científicos
percibieron que las moléculas integrantes de un gas estaban en continuo movimiento,
chocando entre sí y contra las paredes de su recipiente. El primer investigador que
intentó explicar las propiedades de los gases desde ese ángulo visual fue el
matemático suizo Daniel Bernoulli, en 1738, pero sus ideas se adelantaron a la época.
Hacia mediados del siglo XIX, Maxwell y Boltzmann (véase cap. 5) elaboraron
adecuadamente las fórmulas matemáticas y establecieron la «teoría cinética de los
gases» («cinética» proviene de una palabra griega que significa «movimiento»). Dicha
teoría mostró la equivalencia entre el calor y el movimiento de las moléculas. Así,
pues, la teoría calórica del calor recibió un golpe mortal. Se interpretó el calor cual un
fenómeno de vibratilidad; es decir, el movimiento de las moléculas en los gases y
líquidos o su agitado temblor en los sólidos.
Cuando se calienta un sólido hasta que el agitado temblor se intensifica lo suficiente
como para romper los lazos sustentadores entre moléculas vecinas, el sólido se funde
y pasa al estado líquido. Cuanto más resistente sea la unión entre las moléculas
vecinas de un sólido, tanto más calor se requerirá para hacerlas vibrar violentamente
310
hasta romper dichos lazos. Ello significará que la sustancia tiene un punto muy elevado
de fusión.
En el estado líquido, las moléculas pueden moverse libremente dentro de su medio.
Cuando se calienta gradualmente el líquido, los movimientos de las moléculas son al
fin lo bastante enérgicos para liberarlas del cuerpo líquido y entonces éste hierve.
Nuevamente el punto de ebullición será más elevado allá donde las fuerzas
intermoleculares sean más potentes.
Al convertir un sólido en líquido, toda la energía calorífica se aplica a romper los lazos
intermoleculares. De ahí que el calor absorbido por el hielo al derretirse no eleve la
temperatura del hielo. Lo mismo cabe decir de un líquido cuando hierve.
Ahora ya podemos ver fácilmente la diferencia entre calor y temperatura. Calor es la
energía total contenida en los movimientos moleculares de una determinada materia.
Temperatura representa la velocidad promedio del movimiento molecular en esa
materia. Así, pues, medio litro de agua a 60° C contiene dos veces más calor que un
cuarto de agua a 60° C (están vibrando doble número de moléculas), pero el medio
litro y el cuarto tienen idéntica temperatura, pues la velocidad promedio del
movimiento molecular es el mismo en ambos casos.
Hay energía en la propia estructura de un compuesto químico, es decir, en las fuerzas
aglutinantes que mantienen unidos los átomos o las moléculas a sus vecinos. Si esos
lazos se rompen para recomponerse en nuevos lazos implicando menos energía, la
energía sobrante se manifestará como calor, o luz, o ambas cosas. Algunas veces se
libera la energía tan rápidamente que se produce una explosión.
Se ha hecho posible calcular la energía química contenida en una sustancia y mostrar
cuál será la cantidad de calor liberada en una reacción determinada. Por ejemplo, la
combustión del carbón entraña la ruptura de los lazos entre los átomos de carbono y
entre los átomos de las moléculas de oxígeno, con los cuales se vuelve a combinar el
carbono. Ahora bien, la energía de los lazos en el nuevo compuesto (dióxido de
carbono) es inferior a la de los lazos en las sustancias originales que lo formaron. Esta
diferencia mensurable se libera bajo la forma de calor y luz.
En 1876, el físico norteamericano Josiah Willard Gibbs desarrolló con tal detalle la
teoría de la «termodinámica química» que esta rama científica pasó súbitamente de la
inexistencia virtual a la más completa madurez.
La enjundiosa tesis donde Gibbs expuso sus razonamientos superó con mucho a otras
de cerebros norteamericanos, y, no obstante, fue publicada tras muchas vacilaciones
en las Transactions ofthe Connecticut Academy ofArts and Sciences. Incluso algún
tiempo después sus minuciosos argumentos matemáticos y la naturaleza introvertida
del propio Gibbs se combinaron para mantener oculto el tema bajo otros muchos
documentos hasta que el físico y químico alemán Wilhelm Ostwald descubrió la tesis en
1883, la tradujo al alemán y proclamó ante el mundo la grandeza de Gibbs.
Como ejemplo de la importancia de ese trabajo baste decir que las ecuaciones Gibbs
expusieron las reglas simples, pero rigurosas, bajo cuyo gobierno se establece el
equilibrio entre sustancias diferentes que intervienen a la vez en más de una fase (por
ejemplo, forma sólida y en solución, en dos líquidos inmiscibles y un vapor, etc.). Esta
«regla de fases» es un soplo vital para la metalurgia y otras muchas ramas de la
Química.
RELACIÓN MASA-ENERGÍA
Con el descubrimiento de la radiactividad en 1896 (véase capítulo 6) se planteó una
nueva cuestión sobre energía. Las sustancias radiactivas uranio y torio desprendían
partículas dotadas de sorprendente energía. Por añadidura, Marie Curie descubrió que
el radio emitía incesantemente calor en cantidades sustanciales: una onza de radio
proporcionaba 4.000 calorías por hora, y esa emisión se prolongaba hora tras hora,
semana tras semana, década tras década. Ni la reacción química más energética
311
conocida hasta entonces podía producir una millonésima parte de la energía liberada
por el radio. Y aún había algo más sorprendente: a diferencia de las reacciones
químicas, esa producción de energía no estaba asociada con la temperatura.
¡Proseguía sin variación a la muy baja temperatura del hidrógeno líquido como si ésta
fuera una temperatura ordinaria!
Evidentemente había aparecido una especie insólita de energía sin relación alguna con
la energía química. Por fortuna los físicos no tardaron mucho en conocer la respuesta.
Una vez más la dio Einstein con su Teoría especial de la relatividad.
El tratamiento matemático einsteiniano de la energía evidenció que se podía considerar
la masa como una forma de energía, y por cierto muy concentrada, pues una ínfima
cantidad de masa se convertía en inmensas cantidades de energía.
La ecuación de Einstein, relacionando masa y energía, figura hoy entre las más
famosas del mundo. Dice así:
e = mc2
Aquí, e representa la energía (en ergios); m, la masa (en gramos), y c, la velocidad de
la luz (expresada en centímetros por segundo).
Puesto que la luz se traslada a treinta mil millones de centímetros por segundo, el
valor de c2 es 900 mil millones de millones. Ello significa que la conversión de 1 gramo
de masa en energía producirá 900 mil millones de ergios. El ergio es una pequeña
unidad de energía inexpresable en términos corrientes, pero podemos imaginar su
significado si sabemos que la energía contenida en 1 g de masa basta para mantener
encendida una bombilla eléctrica de 1.000 W durante 2.850 años. O, expresándolo de
otra forma, la conversión completa de 1 g de masa en ergio dará un rendimiento
equivalente al de 2.000 toneladas de gasolina.
La ecuación de Einstein destruyó una de las sagradas leyes científicas de conservación.
En efecto, la «ley de conservación de masas», establecida por Lavoisier, decretaba que
no se podía crear ni destruir la materia. A decir verdad, toda reacción química
liberadora de energía transforma una pequeña cantidad de masa en energía: si
pudiéramos pesar con absoluta precisión sus productos, la suma total de éstos no sería
igual a la materia original. Pero la masa perdida en las reacciones químicas ordinarias
es tan ínfima, que los químicos del siglo XIX no habrían podido detectarla con sus
limitados procedimientos técnicos. Sin embargo, ahora los físicos afrontaron un
fenómeno totalmente distinto: la reacción nuclear de la radiactividad, y no la reacción
química del carbón combustible. Las reacciones nucleares libraron tanta energía, que la
pérdida de masa fue lo suficientemente grande como para hacer mediciones.
Abogando por el intercambio de masa y energía, Einstein fundió las leyes de
conservación de energía y de masa en una sola ley: La conservación de masa-energía.
La primera ley de termodinámica no sólo se mantuvo incólume, sino que fue también
más inexpugnable que nunca.
Francis W. Aston confirmó experimentalmente la conversión de masa en energía
mediante su espectrógrafo de masas. Éste podía medir con gran precisión la masa de
núcleos atómicos tomando como base la magnitud de su deflexión por un campo
magnético. Lo que realmente hizo Aston fue demostrar que los diversos núcleos no
eran múltiplos exactos de las masas de neutrones y protones incorporados a su
estructura.
Consideremos por un momento las masas de esos neutrones y protones. Durante un
siglo se han medido generalmente las masas de átomos y partículas subatómicas
dando por supuesto, como base, que el peso atómico del oxígeno es exactamente de
16,00000 (véase capítulo 6). Sin embargo, en 1929, William Giauque demostró que el
oxígeno estaba constituido por 3 isótopos: el oxígeno 16, el oxígeno 17 y el oxígeno
18, y que su peso atómico era el peso promedio de los números másicos de esos tres
312
isótopos.
A buen seguro, el oxígeno 16 era el más abundante de los tres, con el 99,759 % en
todos los átomos de oxígeno. Ello significaba que si el oxígeno tenía un peso atómico
general de 16,00000, el isótopo oxígeno 16 debería tener un número másico de casi
16. (Las masas de las cantidades menores de oxígeno 17 y oxígeno 18 completaban al
valor total, hasta 16.) Una generación después del descubrimiento, los químicos
siguieron comportándose como si no existiera, ateniéndose a la antigua base, es decir,
lo que se ha dado en llamar «pesos atómicos químicos».
Sin embargo, la reacción de los físicos fue distinta. Prefirieron asignar exactamente el
valor 16,0000 a la masa del isótopo oxígeno 16 y determinar las restantes masas
sobre tal base. Ésta permitiría especificar los «pesos atómicos físicos». Tomando, pues,
como base el oxígeno 16 igual al patrón 16, el peso atómico del propio oxígeno, con
sus indicios de isótopos más pesados, fue 16,0044. En general, los pesos atómicos
físicos de todos los elementos serían un 0,027 % más elevados que los de sus
sinónimos, los pesos atómicos químicos.
En 1961, los físicos y los químicos llegaron a un compromiso. Se acordó determinar los
pesos atómicos sobre la base del isótopo carbono 12, al que se daría una masa
12,0000. Así, los números atómicos se basaron en un número másico característico y
adquirieron la mayor solidez fundamental posible. Por añadidura, dicha base mantuvo
los pesos atómicos casi exactamente como eran antes con el antiguo sistema. Por
ejemplo, sobre la base del carbono 12 igual al patrón 12, el peso atómico del oxígeno
es 15,9994.
Bien. Comencemos entonces por el átomo del carbono 12, cuya masa es igual a
12,0000. Su núcleo contiene 6 protones y 6 neutrones. Por las medidas
espectrográficas de masas resulta evidente que, sobre la base del carbono 12 igual al
patrón 12, la masa del protón en 1,007825, y la de un neutrón, 1,008665. Así, pues, 6
protones deberán tener una masa de 6,046950 y 6 neutrones, 6,051990. Los 12
nucleones juntos tendrán una masa de 12,104940. Pero la masa del carbono 12 es
12,00000. ¿Dónde ha ido a parar esa fracción de 0,104940?
La masa desaparecida es el «defecto de masa», el cual, dividido por el número másico,
nos da el defecto de masa por nucleón o la «fracción empaquetadora». Realmente la
masa no ha desaparecido, claro está. Se ha convertido en energía según la ecuación
de Einstein y, por tanto, el defecto de masa es también la «energía aglutinadora» del
núcleo. Para desintegrar el núcleo en protones y neutrones individuales se requiere
una cantidad entrante de energía igual a la energía aglutinadora, puesto que se deberá
formar una cantidad de masa equivalente a esa energía.
Aston determinó la «fracción empaquetadora» de muchos núcleos, y descubrió que
ésta aumentaba desde el hidrógeno hasta los elementos próximos al hierro y luego
disminuía con lentitud en el resto de la tabla periódica. Dicho de otra forma: la energía
aglutinadora por nucleón era más elevada en el centro de la tabla periódica. Ello
significaba que la conversión de un elemento situado en un extremo u otro de la tabla
en otro próximo al centro, debería liberar energía.
Tomemos por ejemplo el uranio 238. Este núcleo se desintegra mediante una serie de
eslabones en plomo 206. Durante tal proceso emite 8 partículas alfa. (También cede
partículas beta, pero éstas son tan ligeras, que se las puede descartar.) Ahora bien, la
masa del plomo 206 es 205,9745, y las 8 partículas alfa dan una masa total de
32,0208. Estos productos juntos totalizan 237,9953 de masa. Pero la del uranio 238,
de donde proceden, es 238,0506. La diferencia o pérdida de masa es 0,0553. Esta
pérdida de masa tiene la magnitud suficiente como para justificar la energía liberada
cuando se desintegra el uranio.
Al desintegrarse el uranio en átomos todavía más pequeños, como le ocurre con la
fisión, libera una cantidad mucho mayor de energía. Y cuando el hidrógeno se
convierte en helio, tal como se encuentra en las estrellas, hay una pérdida fraccional
aún mayor de masa y, consecuentemente, un desarrollo más rico de energía.
313
Por entonces, los físicos empezaron a considerar la equivalencia masa-energía como
una contabilidad muy fiable.
Citemos un ejemplo. Cuando se descubrió el positrón en 1934, su aniquilamiento
recíproco con un electrón produjo un par de rayos gamma cuya energía fue
precisamente igual a la masa de las dos partículas. Por añadidura, se pudo crear masa
con las apropiadas cantidades de energía. Un rayo gamma de adecuada energía,
desaparecería en ciertas condiciones, para originar una «pareja electrón-positrón»
creada con energía pura. Mayores cantidades de energía proporcionadas por partículas
cósmicas o partículas expulsadas de sincrotones protón (véase capítulo 7),
promoverían la creación de más partículas masivas, tales como mesones y
antiprotones.
A nadie puede sorprender que cuando el saldo contable no cuadre, como ha ocurrido
con la emisión de partículas beta poseedoras de una energía inferior a la esperada, los
físicos inventen el neutrino para nivelar las cuentas de energía en vez de atrepellar la
ecuación de Einstein (véase capítulo 7).
Y si alguien requiriera una prueba adicional sobre la conversión de masa en energía,
bastaría con referirse a la bomba atómica, la cual ha remachado ese último clavo.
PARTÍCULAS Y ONDAS
En la década de los años veinte de nuestro siglo, el dualismo reinó sin disputa sobre la
Física. Planck había demostrado que la radiación tenía carácter de partícula y onda a
partes iguales. Einstein había demostrado que la masa y energía eran dos caras de la
misma moneda y que espacio y tiempo eran inseparables. Los físicos empezaban a
buscar otros dualismos.
En 1923, el físico francés Louis-Víctor de Broglie consiguió demostrar que así como una
radiación tenía características de partículas, las partículas de materia tal como los
electrones presentaban características de ondas. Las ondas asociadas a esas partículas
—predijo Broglie— tendrían una longitud inversamente proporcional al momento de la
partícula. Las longitudes de onda asociadas a electrones de velocidad moderada deben
hallarse, según calculó Broglie, en la región de los rayos X.
Hasta esa sorprendente predicción pasó a la historia en 1927. Clinton Joseph Davisson
y Lester Halbert Germer, de los «Bell Telephone Laboratories», bombardearon níquel
metálico con electrones. Debido a un accidente de laboratorio que había hecho
necesario el calentamiento del níquel durante largo tiempo, el metal había adoptado la
forma de grandes cristales, una estructura ideal para los ensayos de difracción porque
el espacio entre átomos en un cristal es comparable a las cortísimas longitudes de
onda de los electrones. Y, efectivamente, los electrones, al pasar a través de esos
cristales, no se comportaron como partículas, sino como ondas. La película colocada
detrás del níquel mostró esquemas de interferencia, bandas alternativas opacas y
claras, tal como habrían aparecido si hubieran sido rayos X y no electrones los que
atravesaron el níquel.
Los esquemas de interferencias eran precisamente los que usara Young más de un
siglo antes para probar la naturaleza ondulatoria de la luz. Ahora servían para probar
la naturaleza ondulatoria de los electrones. Midiendo las bandas de interferencia se
pudo calcular la longitud de onda asociada con los electrones, y esta longitud resultó
ser de 1,65 unidades Angstróm (casi exactamente lo que había previsto Broglie).
Durante aquel mismo año, el físico británico George Paget Thomson, trabajando
independientemente y empleando métodos diferentes, demostró asimismo que los
electrones tienen propiedades ondulatorias.
De Broglie recibió el premio Nobel de Física en 1929; Davisson y Thomson
compartieron ese mismo galardón en 1937.
314
El microscopio electrónico
El descubrimiento, totalmente inesperado, de ese nuevo dualismo, recibió casi
inmediata aplicación en las observaciones microscópicas. Según he mencionado ya, los
microscopios ópticos ordinarios pierden toda utilidad cuando se llega a cierto punto,
porque hay un límite dimensional más allá del cual las ondas luminosas no pueden
definir claramente los objetos. Cuanto más pequeños sean los objetos, más indistintos
serán sus perfiles, pues las ondas luminosas empezarán a contornearlos —algo
señalado, en primer lugar, por el físico alemán Ernst Karl Abbe en 1878—. (Por
idéntica razón; la onda larga radioeléctrica nos transmite un cuadro borroso incluso de
grandes objetos en el cielo.) Desde luego, el remedio consiste en buscar longitudes de
onda más cortas para investigar objetos ínfimos. Los microscopios de luz corriente
pueden distinguir dos franjas de 1/5.000 de milímetro, pero los microscopios de luz
ultravioleta pueden distinguir franjas separadas de 1/10.000 de mm. Los rayos X
serían más eficaces todavía, pero no hay lentes para rayos X. Sin embargo, se podría
solventar este problema usando ondas asociadas con electrones que tienen más o
menos la misma longitud de onda que los rayos X, pero se dejan manejar mucho
mejor, pues, por lo pronto, un campo magnético puede curvar los «rayos electrónicos»
porque las ondas se asocian con una partícula cargada.
Así como el ojo humano ve la imagen amplificada de un objeto si se manejan
apropiadamente con lentes los rayos luminosos; una fotografía puede registrar la
imagen amplificada de un objeto si se manejan apropiadamente con campos
magnéticos las ondas electrónicas. Y como quiera que las longitudes de ondas
asociadas a los electrones son mucho más pequeñas que las de la luz ordinaria, es
posible obtener con el «microscopio electrónico» una enorme amplificación, y, desde
luego, muy superior a la del miscroscopio ordinario (fíg. 8.5).
En 1932, Ernst Ruska y Max Knoll, de Alemania, construyeron un microscopio
electrónico rudimentario, pero el primero realmente utilizable se montó, en 1937, en la
Universidad de Toronto, y sus diseñadores fueron James Hillier y Albert F. Prebus.
Aquel instrumento pudo ampliar 7.000 veces un objeto, mientras que los mejores
microscopios ópticos tienen su máximo poder amplificador en la cota 2.000. Allá por
1939, los microscopios electrónicos fueron ya asequibles comercialmente; más tarde,
Hillier y otros diseñaron microscopios electrónicos con suficiente potencia para
amplificar 2.000.000 de veces un objeto.
Mientras que un microscopio electrónico enfoca a los electrones en el objetivo y los
hace pasar a través del mismo, otra clase la constituyó un rayo de electrones que
pasaba rápidamente por encima del objetivo, barriéndolo de la misma forma en que lo
hace un rayo electrónico en el tubo de imagen de un televisor. Tal microscopio
electrónico de barrido fue sugerido ya en 1938 por Knoll, pero el primer aparato
práctico de esta clase lo construyó el físico britániconorteamericano Albert Víctor
Crewe hacia 1970. El microscopio electrónico de barrido daña menos el objetivo
observado, muestra el objeto con un mayor efecto tridimensional y se consiguen así
más informaciones, e incluso se muestra la posición de los átomos individuales de las
variedades mayores.
315
Electrones y ondas
Nadie se habría sorprendido si ese dualismo partícula-onda funcionara a la inversa, de
tal forma que los fenómenos conceptuados ordinariamente como de naturaleza
ondulatoria tuvieran asimismo características corpusculares. Planck y Einstein habían
mostrado ya que la radiación se componía de cuantos, los cuales, a su manera, son
también partículas. En 1923, Compton, el físico que probaría la naturaleza corpuscular
316
de los rayos cósmicos (véase capítulo 7), demostró que esos cuantos poseían algunas
cualidades corpusculares comunes. Descubrió que los rayos X, al dispersarse en la
materia, perdían energía y adquirían mayor longitud de onda. Eso era justamente lo
que cabía esperar de una radiación «corpuscular» que rebotara contra una materia
corpuscular; la materia corpuscular recibe un impulso hacia delante y gana energía, y
el rayo X, al desviarse, la pierde. El «efecto Compton» contribuyó al establecimiento
del dualismo onda-partícula.
Las ondas corpusculares dejaron entrever también importantes consecuencias para la
teoría. Por lo pronto esclarecieron algunos enigmas sobre la estructura del átomo.
En 1913, Niels Bohr había descrito el átomo de hidrógeno cual un núcleo central
rodeado por un electrón que podía girar en torno suyo siguiendo cualquiera de diversas
órbitas. Estas órbitas ocupaban posiciones fijas; cuando un electrón de hidrógeno
pasaba de una órbita externa a otra interna, perdía energía, que luego era emitida en
forma de un cuanto de longitud de onda fija. Si el electrón se movía de una órbita
interna a otra externa, absorbía un cuanto de energía, pero sólo uno de longitud de
onda y tamaño específicos, es decir, lo suficiente para hacerle moverse en la medida
adecuada. Ésa era la razón de que el hidrógeno pudiera absorber o emitir sólo
radiaciones de determinadas longitudes de onda, produciendo raras características en
el espectro. El esquema de Bohr, cuya complejidad se acentuó paulatinamente durante
la siguiente década, evidenció suma utilidad para explicar muchos hechos sobre el
espectro de varios elementos. Esta teoría le valió a Bohr el premio Nobel de Física en
1922. Los físicos alemanes James Franck y Gustav Ludwig Hertz (este último, sobrino
de Heinrich Hertz) —cuyos estudios sobre las colisiones entre átomos y electrones
dieron unos fundamentos experimentales a las teorías de Bohr— compartieron el
premio Nobel de Física en 1925.
Bohr no supo explicar por qué las órbitas ocupaban posiciones fijas. Se limitó a elegir
las órbitas que dieran resultados correctos respecto a la absorción y emisión de las
longitudes de ondas luminosas sometidas a observación.
En 1926, el físico alemán Erwin Schródinger decidió echar otra ojeada al átomo
inspirándose en la teoría de De Broglie sobre la naturaleza ondulatoria de las
partículas. Considerando el electrón como una onda, se dijo que éste no giraba
alrededor del núcleo como lo hace un planeta alrededor del Sol, sino constituyendo una
onda, que se curvaba alrededor del núcleo de tal forma que estaba a un tiempo, por
así decirlo, en todas las partes de su órbita. Resultó que, tomando como base la
longitud de onda predicha por De Broglie para un electrón, un número entero de ondas
electrónicas se ajustaba exactamente a las órbitas delineadas por Bohr. Entre estas
órbitas, las ondas no se ajustaron en un número entero, sino que se incorporaron
«desfasadas», y tales órbitas carecieron de estabilidad.
Schródinger ideó una descripción matemática del átomo, denominada «mecánica
ondulatoria» o «mecánica cuántica», un método bastante más satisfactorio que el
sistema de Bohr para contemplar el átomo. Schródinger compartió el premio Nobel de
Física en 1933 con Dirac, quien concibiera la teoría de las antipartículas (véase capítulo
7) y contribuyera al desarrollo de ese nuevo panorama del átomo. El físico alemán Max
Born, que coadyuvó al desarrollo matemático de la mecánica cuántica, compartió el
premio Nobel de Física en 1954 (con Bethe).
El principio de incertibumbre
Por aquellas fechas, el electrón se había convertido en una «partícula» bastante difusa.
Y esa ambigüedad habría de empeorar muy pronto. Werner Heisenberg, de Alemania,
planteó una profunda cuestión, que casi proyecto las partículas y la propia Física al
reino de lo incognoscible.
Heisenberg había presentado su propio modelo de átomo renunciando a todo intento
de describir el átomo como un compuesto de partículas y ondas. Pensó que estaba
condenado al fracaso cualquier intento de establecer analogías entre la estructura
atómica y la estructura del mundo. Prefirió describir los niveles de energía u órbitas de
317
electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera
que usó un artificio matemático denominado «matriz» para manipular sus números, el
sistema se denominó «mecánica de matriz».
Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la
mecánica ondulatoria de Schródinger, pues esta última pareció tan útil como las
abstracciones de Heisenberg, y siempre es difícil, incluso para un físico, desistir de
representar gráficamente las propias ideas.
Hacia 1944, los físicos parecieron dispuestos a seguir el procedimiento más correcto,
pues el matemático húngaro-estadounidense John von Neumann expuso una línea
argumental que pareció evidenciar la equivalencia matemática entre la mecánica
matriz y la mecánica ondulatoria. Todo cuanto demostraba la una, lo podía demostrar
igualmente la otra. ¿Por qué no elegir, pues, la versión menos abstracta?
Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo)
Heisenberg pasó a considerar un segundo problema: cómo describir la posición de la
partícula. ¿Cuál es el procedimiento indicado para determinar dónde está una
partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un
microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos
proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón es
tan pequeño, que bastaría un solo fotón de luz para hacerle cambiar de posición
apenas lo tocara. Y en el preciso instante de medir su posición, alteraríamos ésta.
Éste es un fenómeno bastante frecuente en la vida ordinaria. Cuando medimos la
presión de un neumático con un manómetro, dejamos escapar algo de aire y, por
tanto, cambiamos la presión ligeramente en el mismo acto de medirla. Asimismo,
cuando metemos un termómetro cambia levemente esa temperatura al absorber calor.
Un contador de corriente eléctrica roba un poco de corriente para mover la manecilla
sobre la esfera. Y así ocurre siempre en cada medida que tomemos.
Sin embargo, el cambio del sujeto es tan ínfimo en todas nuestras mediciones
ordinarias, que podemos despreciarlo. Ahora bien, la situación varía mucho cuando
intentamos calibrar el electrón. Aquí nuestro artificio medidor es por lo menos tan
grande como el objeto que medimos; y no existe ningún agente medidor más pequeño
que el electrón. En consecuencia, nuestra medición debe surtir, sin duda, un efecto
nada desdeñable, un efecto más bien decisivo en el objeto medido. Podríamos detener
el electrón y determinar así su posición en un momento dado. Pero si lo hiciéramos, no
sabríamos cuál es su movimiento ni su velocidad. Por otra parte, podríamos gobernar
su velocidad, pero entonces no podríamos fijar su posición en un momento dado.
Heisenberg demostró que no nos será posible idear un método para localizar la
posición de la partícula subatómica mientras no estemos dispuestos a aceptar la
incertidumbre absoluta respecto a su posición exacta. Es un imposible calcular ambos
datos con exactitud al mismo tiempo.
Siendo así, no podrá haber una ausencia completa de energía ni en el cero absoluto
siquiera. Si la energía alcanzara el punto cero y las partículas quedaran totalmente
inmóviles, sólo sería necesario determinar su posición, puesto que la velocidad
equivaldría a cero. Por tanto, sería de esperar que subsistiera alguna «energía residual
del punto cero», incluso en el cero absoluto, para mantener las partículas en
movimiento y también, por así decirlo, nuestra incertidumbre. Esa energía «punto
cero» es lo que no se puede eliminar, lo que basta para mantener líquido el helio
incluso en el cero absoluto (véase capítulo 6).
En 1930, Einstein demostró que el principio de incertidumbre —donde se afirma la
imposibilidad de reducir el error en la posición sin incrementar el error en el
momento— implicaba también la imposibilidad de reducir el error en la medición de
energía sin acrecentar la incertidumbre del tiempo durante el cual se toma la medida.
Él creyó poder utilizar esta tesis como trampolín para refutar el principio de
incertidumbre, pero Bohr procedió a demostrar que la refutación tentativa de Einstein
era errónea.
318
A decir verdad, la versión de la incertidumbre, según Einstein, resultó ser muy útil,
pues significó que en un proceso subatómico se podía violar durante breves lapsos la
ley sobre conservación de energía siempre y cuando se hiciese volver todo al estado de
conservación cuando concluyesen esos períodos: cuanto mayor sea la desviación de la
conservación, tanto más breves serán los intervalos de tiempo tolerables. Yukawa
aprovechó esta noción para elaborar su teoría de los piones (véase capítulo 7). Incluso
posibilitó la elucidación de ciertos fenómenos subatómicos presuponiendo que las
partículas nacían de la nada como un reto a la conservación de la energía, pero se
extinguían antes del tiempo asignado a su detección, por lo cual eran sólo «partículas
virtuales». Hacia fines de la década 1940-1950, tres hombres elaboraron la teoría
sobre esas partículas virtuales: fueron los físicos norteamericanos Julián Schwinger y
Richard Phillips Feynman y el físico japonés Sinitiro Tomonaga. Para recompensar ese
trabajo, se les concedió a los tres el premio Nobel de Física en 1965.
A partir de 1976 se han producido especulaciones acerca de que el Universo comenzó
con una pequeña pero muy masiva partícula virtual que se expandió con extrema
rapidez y que aún sigue existiendo. Según este punto de vista, el Universo se formó de
la Nada y podemos preguntarnos acerca de la posibilidad de que haya un número
infinito de Universos que se formen (y llegado el momento acaben) en un volumen
infinito de Nada.
El «principio de incertidumbre» afectó profundamente al pensamiento de los físicos y
los filósofos. Ejerció una influencia directa sobre la cuestión filosófica de «casualidad»
(es decir, la relación de causa y efecto). Pero sus implicaciones para la Ciencia no son
las que se suponen por lo común. Se lee a menudo que el principio de incertidumbre
anula toda certeza acerca de la naturaleza y muestra que, al fin y al cabo, la Ciencia
no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a
merced de los caprichos imprevisibles de un Universo donde el efecto no sigue
necesariamente a la causa. Tanto si esta interpretación es válida desde el ángulo visual
filosófico como si no, el principio de incertidumbre no ha conmovido la actitud del
científico ante la investigación. Si, por ejemplo, no se puede predecir con certeza el
comportamiento de las moléculas individuales en un gas, también es cierto que las
moléculas suelen acatar ciertas leyes, y su conducta es previsible sobre una base
estadística, tal como las compañías aseguradoras calculan con índices de mortalidad
fiables, aunque sea imposible predecir cuándo morirá un individuo determinado.
Ciertamente, en muchas observaciones científicas, la incertidumbre es tan
insignificante comparada con la escala correspondiente de medidas, que se la puede
descartar para todos los propósitos prácticos. Uno puede determinar simultáneamente
la posición y el movimiento de una estrella, o un planeta, o una bola de billar, e incluso
un grano de arena con exactitud absolutamente satisfactoria.
Respecto a la incertidumbre entre las propias partículas subatómicas, cabe decir que
no representa un obstáculo, sino una verdadera ayuda para los físicos. Se la ha
empleado para esclarecer hechos sobre la radiactividad, sobre la absorción de
partículas subatómicas por los núcleos, así como otros muchos acontecimientos
subatómicos, con mucha más racionabilidad de lo que hubiera sido posible sin el
principio de incertidumbre.
El principio de incertidumbre significa que el Universo es más complejo de lo que se
suponía, pero no irracional.
Dostları ilə paylaş: |