Isaac Asimov nueva guía de la ciencia ciencias físicas



Yüklə 3,98 Mb.
səhifə22/42
tarix10.12.2017
ölçüsü3,98 Mb.
#14975
1   ...   18   19   20   21   22   23   24   25   ...   42

difiere de un átomo ordinario en poseer una carga eléctrica. La palabra ion, fue

acuñada en primer lugar en los años 1930 por el estudioso inglés William Whewell, y

procede de una voz griega que significa «viajero». En su origen se apoyó en el hecho

de que, cuando una corriente eléctrica pasa a través de una solución que contiene

iones, los iones cargados positivamente viajan en una dirección y los iones cargados

negativamente en la otra.

Un joven estudiante de Química sueco, Svante August Arrhenius, fue el primero en

sugerir que los iones eran átomos cargados, lo cual explicaría el comportamiento de

ciertas soluciones conductoras de corriente eléctrica. Sus teorías —expuestas en 1884

en su tesis doctoral de Ciencias— eran tan revolucionarias, que el tribunal examinador

mostró cierta reticencia a la hora de concederle el título. Aún no se habían descubierto

las partículas cargadas en el interior del átomo, por lo cual parecía ridículo el concepto

de un átomo cargado eléctricamente. Arrhenius consiguió su doctorado, pero con una

178

calificación mínima.



Cuando se descubrió el electrón, a últimos de la década de 1890, la teoría de Arrhenius

adquirió de pronto un sentido sorprendente. En 1903 fue galardonado con el Premio

Nobel de Química por la misma tesis que 19 años antes casi le costara su doctorado.

(Debo admitir que esto parece el guión de una película, pero la historia de la Ciencia

contiene muchos episodios que harían considerar a los guionistas de Hollywood como

faltos de imaginación.)

El descubrimiento de iones en la atmósfera no volvió al primer plano hasta después de

que Guillermo Marconi iniciara sus experimentos de telegrafía sin hilos. Cuando, el 12

de diciembre de 1901, envió señales desde Cornualles a Terranova, a través de 3.378

km del océano Atlántico, los científicos se quedaron estupefactos. Las ondas de radio

viajan sólo en línea recta. ¿Cómo podían haber superado, pues, la curvatura de la

Tierra, para llegar hasta Terranova?

Un físico británico, Oliver Heaviside, y un ingeniero electrónico americano, Arthur

Edwin Kennelly, sugirieron, poco después, que las señales de radio podían haber sido

reflejadas por una capa de partículas cargadas que se encontrase en la atmósfera, a

gran altura. La «capa Kennelly-Heaviside» —como se llama desde entonces— fue

localizada, finalmente, en la década de 1920. La descubrió el físico británico Edward

Víctor Appleton, cuando estudiaba el curioso fenómeno del amortiguamiento (fading)

de la transmisión radiofónica. Y llegó a la conclusión de que tal amortiguamiento era el

resultado de la interferencia entre dos versiones de la misma señal, la que iba

directamente del transmisor al receptor y la que seguía a ésta después de su reflexión

en la atmósfera superior. La onda retrasada se hallaba desfasada respecto a la

primera, de modo que ambas se anulaban parcialmente entre sí; de aquí el

amortiguamiento.

Partiendo de esta base resultaba fácil determinar la altura de la capa reflectante. Todo

lo que se había de hacer era enviar señales de una longitud de onda tal que las

directas anulasen por completo a las reflejadas, es decir, que ambas señales llegasen

en fases contrapuestas. Partiendo de la longitud de onda de la señal empleada y de la

velocidad conocida de las ondas de radio, pudo calcular la diferencia en las distancias

que habían recorrido los dos trenes de ondas. De este modo determinó que la capa

Kennelly-Heaviside estaba situada a unos 104 km de altura.

El amortiguamiento de las señales de radio solía producirse durante la noche. Appleton

descubrió que, poco antes del amanecer, las ondas de radio eran reflejadas por la capa

Kennelly-Heaviside sólo a partir de capas situadas a mayores alturas (denominadas

hoy, a veces, «capas Appleton») que empezaban a los 225 km de altura (fig. 5.3).

Por todos estos descubrimientos, Appleton recibió, en 1947, el Premio Nobel de Física.

Había definido la importante región de la atmósfera llamada «ionosfera», término

introducido en 1930 por el físico escocés Robert Alexander Watson-Watt. Incluye la

mesosfera y la termosfera, y hoy se la considera dividida en cierto número de capas.

Desde la estratopausa hasta los 104 km de altura aproximadamente se encuentra la

«región D». Por encima de ésta se halla la capa Kennelly-Heaviside, llamada «capa D».

Sobre la capa D, hasta una altura de 235 km, tenemos la «región E», un área

intermedia relativamente pobre en iones, la cual va seguida por las capas de Appleton:

la «capa F1», a 235 km, y la «capa F2», a 321 km. La capa F1 es la más rica en iones,

mientras que la F2 es significativamente intensa durante el día. Por encima de estos

estratos se halla la «región F».

Estas capas reflejan y absorben sólo las ondas largas de radio empleadas en las

emisiones normales. Las más cortas, como las utilizadas en televisión, pasan, en su

mayor parte, a través de las mismas. Ésta es la causa de que queden limitadas, en su

alcance, las emisiones de televisión, limitación que puede remediarse gracias a las

estaciones repetidoras situadas en satélites como el Early Bird (o Pájaro del Alba),

lanzado en 1965, el cual permite que los programas de televisión atraviesen océanos y

continentes. Las ondas de radio procedentes del espacio (por ejemplo, de las estrellas)

pasan también a través de la ionosfera; y podemos decir que, por fortuna, pues, de lo

179

contrario, no existiría la Radioastronomía.



La ionosfera tiene mayor potencia al atardecer, después del efecto ejercido por las

radiaciones solares durante todo el día, para debilitarse al amanecer, lo cual se debe a

que han vuelto a unirse muchos iones y electrones. Las tormentas solares, al

intensificar las corrientes de partículas y las radiaciones de alta energía que llegan a la

Tierra, determinan un mayor grado de ionización en las capas, a la vez que dan más

espesor a las mismas. Las regiones situadas sobre la ionosfera se iluminan también

cuando originan las auroras. Durante estas tormentas eléctricas queda interrumpida la

transmisión de las ondas de radio a larga distancia, y, en ocasiones, desaparecen

180

totalmente.



La ionosfera ha resultado ser sólo uno de los cinturones de radiación que rodea la

Tierra. Más allá de la atmósfera, en lo que antes se consideraba espacio «vacío», los

satélites artificiales mostraron algo sorprendente en 1958. Mas, para entenderlo,

hagamos antes una incursión en el tema del magnetismo.

IMANES

Los imanes (magnetos) recibieron su nombre de la antigua ciudad griega de Magnesia,



cerca de la cual se descubrieron las primeras «piedras-imán. La piedra-imán

(magnetita) es un óxido de hierro que tiene propiedades magnéticas naturales. Según

la tradición, Tales de Mileto, hacia el 550 a. de J.C. fue el primer filósofo que lo

describió.



Magnetismo y electricidad

Los imanes se convirtieron en algo más que una simple curiosidad cuando se descubrió

que una aguja, al entrar en contacto con una piedra-imán, quedaba magnetizada, y

que si se permitía que la aguja pivotase libremente en un plano horizontal, señalaba

siempre la línea Norte-Sur. Desde luego, la aguja era de gran utilidad para los

marinos; tanto, que se hizo indispensable para la navegación oceánica, a pesar de que

los polinesios se las arreglaban para cruzar el Pacífico sin necesidad de brújula.

No se sabe quién fue el primero en colocar una aguja magnetizada sobre un pivote y

encerrarla en una caja, para obtener la brújula. Se supone que fueron los chinos,

quienes lo transmitieron a los árabes, los cuales, a su vez, lo introdujeron en Europa.

Esto es muy dudoso, y puede ser sólo una leyenda. Sea como fuere, en el siglo XII la

brújula fue introducida en Europa y descrita con detalle, en 1269, por un estudiante

francés más conocido por su nombre latinizado de Petrus Peregrinus, el cual llamó

«polo Norte» al extremo de la aguja imantada que apuntaba al Norte, y «polo Sur» al

extremo opuesto.

Como es natural, la gente especulaba acerca del motivo por el que apuntaba al Norte

una aguja magnetizada. Como quiera que se conocía el hecho de que los imanes se

atraían entre sí, algunos pensaron que debía de existir una gigantesca montaña

magnética en el polo Norte, hacia el que apuntaba la aguja. Otros fueron más

románticos y otorgaron a los imanes un «alma» y una especie de vida.

El estudio científico de los imanes inicióse con William Gilbert, médico de la Corte de

Isabel I de Inglaterra. Fue éste quien descubrió que la Tierra era, en realidad, un

gigantesco imán. Gilbert montó una aguja magnetizada de modo que pudiese pivotar

libremente en dirección vertical (una «brújula de inclinación»), y su polo Norte señaló

entonces hacia el suelo («inclinación magnética»). Usando un imán esférico como un

modelo de la Tierra, descubrió que la aguja se comportaba del mismo modo cuando

era colocada sobre el «hemisferio Norte» de su esfera. En 1600, Gilbert publicó estos

descubrimientos en su clásica obra De Magnete. En los tres siglos que han transcurrido

desde los trabajos de Gilbert, nadie ha conseguido explicar el magnetismo de la Tierra

de forma satisfactoria para todos los especialistas. Durante largo tiempo, los científicos

especularon con la posibilidad de que la Tierra pudiese tener como núcleo un

gigantesco imán de hierro. A pesar de que, en efecto, se descubrió que nuestro

planeta tenía un núcleo de hierro, hoy sabemos que tal núcleo no puede ser un imán,

puesto que el hierro, cuando se calienta hasta los 760° C, pierde sus grandes

propiedades magnéticas, y la temperatura del núcleo de la Tierra debe de ser, por lo

menos, de 1.000° C.

La temperatura a la que una sustancia pierde su magnetismo se llama «temperatura

Curie», en honor a Pierre Curie, que descubrió este fenómeno en 1895. El cobalto y el

níquel, que en muchos aspectos se parecen sensiblemente al hierro, son también

ferromagnéticos. La temperatura Curie para el níquel es de 356° C; para el cobalto, de

1.075° C. A temperaturas bajas son también ferromagnéticos otros metales. Por

ejemplo, lo es el disprosio a -188° C.

181

En general, el magnetismo es una propiedad inherente del átomo, aunque en la mayor



parte de los materiales los pequeños imanes atómicos están orientados al azar, de

modo que resulta anulado casi todo el efecto. Aun así, revelan a menudo ligeras

propiedades magnéticas, cuyo resultado es el «paramagnetismo». La fuerza del

magnetismo se expresa en términos de «permeabilidad». La permeabilidad en el vacío

es de 1,00, y la de las sustancias paramagnéticas está situada entre 1,00 y 1,01.

Las sustancias ferromagnéticas tienen permeabilidades mucho más altas. La del níquel

es de 40; la del cobalto, de 55, y la del hierro, de varios miles. En 1907, el físico

francés Pierre Weiss postuló la existencia de «regiones» en tales sustancias. Se trata

de pequeñas áreas, de 0,001 a 0,1 cm de diámetro (que han sido detectados), en las

que los imanes atómicos están dispuestos de tal forma que sus efectos se suman, lo

cual determina fuertes campos magnéticos exteriores en el seno de la región. En el

hierro normal no magnetizado, las regiones están orientadas al azar y anulan los

efectos de las demás. Cuando las regiones quedan alineadas por la acción de otro

imán, se magnetiza el hierro. La reorientación de regiones durante el magnetismo da

unos sonidos sibilantes y de «clic», que pueden ser detectados por medio de

amplificadores adecuados, lo cual se denomina «efecto Barkhausen», en honor a su

descubridor, el físico alemán Heinrich Barkhausen.

En las «sustancias antiferromagnéticas», como el manganeso, las regiones se alinean

también, pero en direcciones alternas, de modo que se anula la mayor parte del

magnetismo. Por encima de una determinada temperatura, las sustancias pierden su

antiferromagnetismo y se convierten en paramagnéticas.

Si el núcleo de hierro de la Tierra no constituye, en sí mismo, un imán permanente,

por haber sido sobrepasada su temperatura Curie, debe de haber otro modo de

explicar la propiedad que tiene la Tierra de afectar la situación de los extremos de la

aguja. La posible causa fue descubierta gracias a los trabajos del científico inglés

Michael Faraday, quien comprobó la relación que existe entre el magnetismo y la

electricidad.

En la década de 1820, Faraday comenzó un experimento que había descrito por vez

primera Petrus Peregrinus —y que aún sigue atrayendo a los jóvenes estudiantes de

Física—. Consiste en esparcir finas limaduras de hierro sobre una hoja de papel situada

encima de un imán y golpear suavemente el papel. Las limaduras tienden a alinearse

alrededor de unos arcos que van del polo norte al polo sur del imán. Según Faraday,

estas «líneas magnéticas de fuerza» forman un «campo» magnético.

Faraday, que sintiéndose atraído por el tema del magnetismo al conocer las

observaciones hechas, en 1820, por el físico danés Hans Christian Oersted —según las

cuales una corriente eléctrica que atraviese un cable desvía la aguja de una brújula

situada en su proximidad—, llegó a la conclusión de que la corriente debía de formar

líneas magnéticas de fuerza en torno al cable.

Estuvo aún más seguro de ello al comprobar que el físico francés André-Marie Ampére

había proseguido los estudios sobre los cables conductores de electricidad

inmediatamente después del descubrimiento de Oersted. Ampére demostró que dos

cables paralelos, por los cuales circulara la corriente en la misma dirección, se atraían.

En cambio, se repelían cuando las corrientes circulaban en direcciones opuestas. Ello

era muy similar a la forma en que se repelían dos polos norte magnéticos (o dos polos

sur magnéticos), mientras que un polo norte magnético atraía a un polo sur

magnético. Más aún, Ampére demostró que una bobina cilindrica de cable atravesada

por una corriente eléctrica, se comportaba como una barra imantada. En 1881, y en

honor a él, la unidad de intensidad de una corriente eléctrica fue denominada,

oficialmente, «ampere» o amperio.

Pero si todo esto ocurría así —pensó Faraday (quien tuvo una de las intuiciones más

positivas en la historia de la Ciencia)—, y si la electricidad puede establecer un campo

magnético tan parecido a uno real que los cables que transportan una corriente

eléctrica pueden actuar como imanes, ¿no sería también cierto el caso inverso? ¿No

debería un imán crear una corriente de electricidad que fuese similar a la producida

182

por pilas?



En 1831, Faraday realizó un experimento que cambiaría la historia del hombre. Enrolló

una bobina de cable en torno a un segmento de un anillo de hierro, y una segunda

bobina, alrededor de otro segmento del anillo. Luego conectó la primera a una batería.

Su razonamiento era que si enviaba una corriente a través de la primera bobina,

crearía líneas magnéticas de fuerza, que se concentrarían en el anillo de hierro,

magnetismo inducido que produciría, a su vez, una corriente en la segunda bobina.

Para detectarla, conectó la segunda bobina a un galvanómetro, instrumento para

medir corrientes eléctricas, que había sido diseñado, en 1820, por el físico alemán

Johann Salomo Christoph Schweigger.

El experimento no se desarrolló tal como había imaginado Faraday. El flujo de

corriente en la primera bobina no generó nada en la segunda. Pero Faraday observó

que, en el momento en que conectaba la corriente, la aguja del galvanómetro se movía

lentamente, y hacía lo mismo, aunque en dirección opuesta, cuando cortaba la

corriente. En seguida comprendió que lo que creaba la corriente era el movimiento de

las líneas magnéticas de fuerza a través del cable, y no el magnetismo propiamente

dicho. Cuando una corriente empezaba a atravesar la primera bobina, se iniciaba un

campo magnético que, a medida que se extendía, cruzaba la segunda bobina, en la

cual producía una corriente eléctrica momentánea. A la inversa, cuando se cortaba la

corriente de la batería, las líneas, a punto de extinguirse, de la fuerza magnética,

quedaban suspendidas de nuevo en el cable de la segunda bobina, lo cual determinaba

un flujo momentáneo de electricidad en dirección opuesta a la del primero.

De este modo, Faraday descubrió el principio de la inducción eléctrica y creó el primer

«transformador». Procedió a demostrar el fenómeno de una forma más clara, para lo

cual empleó un imán permanente, que introducía una y otra vez en el interior de una

bobina de cable, para sacarlo luego del mismo; pese a que no existía fuente alguna de

electricidad, se establecía corriente siempre que las líneas de fuerza del imán

atravesaban el cable (fig. 5.4).

Los descubrimientos de Faraday condujeron directamente no sólo a la creación de la

dínamo para generar electricidad, sino que también dieron base a la teoría

«electromagnética» de James Clerk Maxwell, la cual agrupaba la luz y otras formas de

radiación —tales como la radioeléctrica— en una sola familia de «radiaciones

electromagnéticas».



El campo magnético de la Tierra

La estrecha relación entre el magnetismo y la electricidad ofrece una posible

explicación al magnetismo de la Tierra. La brújula ha puesto de relieve sus líneas de

fuerza magnéticas, que van desde el «polo norte magnético», localizado al norte del

183

Canadá, hasta el «polo sur magnético», situado en el borde de la Antártida, cada uno



de ellos a unos 15° de latitud de los polos geográficos. (El campo magnético de la

Tierra ha sido detectado a grandes alturas por cohetes provistos de «magne tome

tros».) Según la nueva teoría, el magnetismo de la Tierra puede originarse en el flujo

de corrientes eléctricas situadas profundamente en su interior.

El físico Walter Maurice Elsasser ha sugerido que la rotación de la Tierra crea lentos

remolinos, que giran de Oeste a Este, en el núcleo de hierro rundido. Estos remolinos

generan una corriente eléctrica que, como ellos, circula de Oeste a Este. Del mismo

modo que la bobina de cable de Faraday producía líneas magnéticas de fuerza en su

interior, la corriente eléctrica circulante lo hace en el núcleo de la Tierra. Por tanto,

crea el equivalente de un imán interno, que se extiende hacia el Norte y el Sur. A su

vez, este imán es responsable del campo magnético general de la Tierra, orientado,

aproximadamente, a lo largo de su eje de rotación, de modo que los polos magnéticos

están situados muy cerca de los polos geográficos Norte y Sur (fig. 5.5).

El Sol posee también un campo magnético general, dos o tres veces más intenso que

el de la Tierra, así como campos locales, aparentemente relacionados con las manchas

solares, que son miles de veces más intensos. El estudio de estos campos —que ha

sido posible gracias a que el intenso magnetismo afecta a la longitud de onda de la luz

emitida— sugiere que en el interior del Sol existen corrientes circulares de cargas

eléctricas.

En realidad hay hechos verdaderamente chocantes en lo que se refiere a las manchas

solares, hechos a los cuales se podrá encontrar explicación cuando se conozcan las

184


causas de los campos magnéticos a escala astronómica. Por ejemplo, el número de

manchas solares en la superficie aumenta y disminuye en un ciclo de 11 años y medio.

Esto lo estableció, en 1843, el astrónomo alemán Heinrich Samuel Schwabe, quien

estudió la superficie del Sol casi a diario durante 17 años. Más aún, las manchas

solares aparecen sólo en ciertas latitudes, las cuales varían a medida que avanza el

ciclo. Las manchas muestran cierta orientación magnética, que se invierte en cada

nuevo ciclo. Se desconoce aún la razón de todo ello.

Pero no es necesario examinar el Sol para hallar misterios relacionados con los campos

magnéticos. Ya tenemos suficientes problemas aquí en la Tierra. Por ejemplo, ¿por qué

los polos magnéticos no coinciden con los geográficos? El polo norte magnético está

situado junto a la costa norte del Canadá, a unos 1.600 km del polo Norte geográfico.

Del mismo modo, el polo sur magnético se halla cerca de los bordes de la Antártida, al

oeste del mar de Ross, también a unos 1.600 km del polo Sur. Es más, los polos

magnéticos no están exactamente opuestos el uno al otro en el Globo. Una línea que

atravesase nuestro planeta para unirlos (el «eje magnético»), no pasaría a través del

centro de la Tierra.

La desviación de la brújula respecto al «Norte verdadero» (o sea la dirección del polo

Norte) varía de forma irregular a medida que nos movemos hacia el Este o hacia el

Oeste. Así, la brújula cambió de sentido en el primer viaje de Colón, hecho que éste

ocultó a su tripulación, para no causar un pánico que lo hubiese obligado a regresar.

Ésta es una de las razones por las que no resulta enteramente satisfactorio el empleo

de la brújula para determinar una dirección. En 1911, el inventor americano Elmer

Ambrose Sperry introdujo un método no basado en el magnetismo para indicar la

dirección. Se trata de una rueda, de borde grueso, que gira a gran velocidad (el

«giroscopio», que estudió por vez primera Foucault, quien había demostrado la

rotación de la Tierra) y que tiende a resistir los cambios en su plano de rotación. Puede

utilizarse como una «brújula giroscópica», ya que es capaz de mantener una referencia

fija de dirección, lo cual permite guiar las naves o los cohetes.

Pero si la brújula magnética es imperfecta, ha prestado un gran servicio durante

muchos siglos. Puede establecerse la desviación de la aguja magnética respecto al

Norte geográfico. Un siglo después de Colón, en 1581, el inglés Robert Norman

preparó el primer mapa que indicaba la dirección actual marcada por la brújula

(«declinación magnética») en diversas partes del mundo. Las líneas que unían todos

los puntos del Planeta que mostraban las mismas declinaciones («líneas isogónicas»)

seguían una trayectoria curvilínea desde el polo norte al polo sur magnéticos.

Por desgracia, tales mapas habían de ser revisados periódicamente, ya que, incluso

para un determinado lugar, la declinación magnética cambia con el tiempo. Por

ejemplo, la declinación, en Londres, se desvió 32° de arco en dos siglos; era de 8°

Nordeste en el año 1600, y poco a poco se trasladó, en sentido inverso a las agujas del

reloj, hasta situarse, en 1800, en los 24° Noroeste. Desde entonces se ha desplazado

en sentido inverso, y en 1950 era sólo de 8° Noroeste. La inclinación magnética

cambia lentamente con el tiempo para cualquier lugar de la Tierra, y, en consecuencia,

debe ser también constantemente revisado el mapa que muestra las líneas de la

misma inclinación («líneas isoclinas»). Además, la intensidad del campo magnético de

la Tierra aumenta con la latitud, y es tres veces más fuerte cerca de los polos

magnéticos que en las regiones ecuatoriales. Esta intensidad se modifica asimismo de

forma constante, de modo que deben someterse, a su vez, a una revisión periódica,

los mapas de las «líneas isodinámicas».

Tal como ocurre con todo lo referente al campo magnético, varía la intensidad total del

campo. Hace ya bastante tiempo que tal intensidad viene disminuyendo. Desde 1670,

el campo ha perdido el 15 % de su potencia absoluta; si esto sigue así, alcanzará el

cero alrededor del año 4000. ¿Y qué sucederá entonces? ¿Seguirá decreciendo, es

decir, invirtiéndose con el polo norte magnético en la Antártida y el polo sur magnético

en el Ártico? Planteándolo de otra forma: ¿Es que el campo magnético terrestre

disminuye, se invierte y se intensifica, repitiendo periódicamente la misma secuencia?

185


Un procedimiento para averiguar si puede ser posible tal cosa es el estudio de las rocas

volcánicas. Cuando la lava se enfría, los cristales se alinean de acuerdo con el campo

magnético. Nada menos que hacia 1906, el físico francés Bernard Brunhes advirtió ya

que algunas rocas se magnetizaban en dirección opuesta al campo magnético real de

la Tierra. Por aquellas fechas se desestimó tal hallazgo, pero ahora nadie niega su

importancia. Las rocas nos lo hacen saber claramente: el campo magnético terrestre

se invierte no sólo ahora, sino que lo ha hecho ya varias veces —para ser exactos

nueve—, a intervalos irregulares durante los últimos cuatro millones de años.

El hallazgo más espectacular a este respecto se efectuó en el fondo oceánico. Como

quiera que la roca fundida que sale, sin duda, a través de la Hendidura del Globo, y se

desparrama, si uno se mueve hacia el Este o el Oeste de tal Hendidura, pasará por

rocas que se han ido solidificando progresivamente hace largo tiempo. Si estudiamos la

alineación magnética, advertiremos inversiones de determinadas fajas, que van

alejándose de la Hendidura a intervalos cuya duración oscila entre los 50.000 años y

los 20 millones de años. Hasta ahora, la única explicación racional de semejante

fenómeno consiste en suponer que hay un suelo marino que se desparrama

incesantemente y unas inversiones del campo magnético.

Sin embargo, resulta más fácil admitir tales inversiones que averiguar sus causas.

Además de las variaciones del campo magnético a largo plazo, se producen también

pequeños cambios durante el día, los cuales sugieren alguna relación con el Sol. Es

más, hay «días agitados» en los que la aguja de la brújula salta con una viveza poco

usual. Se dice entonces que la Tierra está sometida a una «tormenta magnética». Las

tormentas magnéticas son idénticas a las eléctricas, y, en general, van acompañadas

de un aumento en la intensidad de las auroras, observación esta hecha ya en 1759 por

el físico inglés John Cantón.

La aurora boreal (término introducido en 1621 por el filósofo francés Fierre Gassendi)

es un maravilloso despliegue de inestables y coloreadas corrientes u ondulaciones de

luz, que causan un efecto de esplendor extraterrestre. Su contrapartida en el Antartico

recibe el nombre de aurora austral. Las corrientes de la aurora parecen seguir las

líneas de fuerza magnética de la Tierra y concentrarse, para hacerse visibles, en los

puntos en que las líneas están más juntas, es decir, en los polos magnéticos. Durante

las tormentas magnéticas, la aurora boreal puede verse en puntos tan meridionales

como Boston y Nueva York.

No fue difícil entender el porqué de la aurora boreal. Una vez descubierta la ionosfera

se comprendió que algo —presuntamente, alguna radiación solar de cualquier tipo—

comunicaba energía a los átomos en la atmósfera superior y los transformaba en iones

cargados eléctricamente. Por la noche, los iones perdían su carga y su energía; esto

último se hacía perceptible mediante la luz de la aurora. Era una especie de singular

resplandor aéreo, que seguía las líneas magnéticas de fuerza y se concentraba cerca

de los polos magnéticos, porque ése era el comportamiento que se esperaba de los

iones cargados eléctricamente. (El resplandor aéreo propiamente dicho se debe a los

átomos sin carga eléctrica, por lo cual no reaccionan ante el campo magnético.)



El viento solar

Pero, ¿qué decir de los días agitados y las tormentas magnéticas? Una vez más, el

dedo de la sospecha apunta hacia el Sol.

La actividad de las manchas solares parece generar tormentas magnéticas. Hasta qué

punto una perturbación que tiene lugar a 150 millones de kilómetros de distancia

puede afectar a la Tierra, es algo que no resulta fácil de ver, pero debe ser así, puesto

que tales tormentas son particularmente comunes cuando la actividad de las manchas

solares es elevada.

El principio de una respuesta llegó en 1859, cuando un astrónomo inglés, Richard

Christopher Carrington, observó que un punto de luz semejante a una estrella que

ardía en la superficie solar, duraba 5 minutos y desaparecía. Fue la primera

186


observación registrada de una erupción solar. Carrington especuló respecto de que un

gran meteoro había caído en el Sol, y dio por supuesto que se trataba de un fenómeno

en extremo infrecuente.

Sin embargo, en 1889 George E. Hale inventó el espectroheliógrafo, que permitió

fotografiar al Sol a la luz de una particular región espectral. Se pudo recoger así con

facilidad las erupciones solares, y se demostró que las mismas eran comunes y se

hallan asociadas con las regiones de manchas solares. De una forma clara, las

erupciones solares eran irrupciones de infrecuente energía que en cierta forma

implicaba el mismo fenómeno que produce las manchas solares (de todos modos, la

causa de las erupciones sigue siendo desconocida). Cuando la erupción solar está cerca

del disco solar, se enfrenta a la Tierra, y cualquier cosa que surja de allí se mueve en

dirección de la Tierra. Tales erupciones centrales es seguro que se ven seguidas de

tormentas magnéticas en la Tierra al cabo de unos días, cuando las partículas

disparadas por el Sol alcanzan la atmósfera superior terrestre. Ya en 1896, semejante

sugerencia fue efectuada por el físico noruego Olaf Kristian Birkeland.

En realidad, existían muchas evidencias de que, viniesen de donde viniesen las

partículas, la Tierra quedaba bañada en un aura de las mismas que se extendían hasta

muy lejos en el espacio. Las ondas de radio generadas por los rayos se ha descubierto

que viajan a lo largo de las líneas magnéticas terrestres de fuerza a grandes alturas.

(Esas ondas, llamadas silbadoras porque fueron captadas por los receptores como unos

ruidos raros tipo silbidos, fueron descubiertas accidentalmente por el físico alemán

Heinrich Barkhausen durante la Primera Guerra Mundial.) Las ondas de radio no

pueden seguir la línea de fuerza a menos que estén presentes partículas cargadas.

Sin embargo, no pareció que tales partículas cargadas emergiesen sólo a ráfagas.

Sydney Chapman, al estudiar la corona solar, allá por 1931, se mostró cada vez más

impresionado al comprobar su extensión. Todo cuanto podíamos ver durante un eclipse

total de Sol era su porción más interna. Las concentraciones mensurables de partículas

cargadas en la vecindad de la Tierra —pensó— deberían formar parte de la corona.

Esto significaba, pues, en cierto modo, que la Tierra giraba alrededor del Sol dentro de

la atmósfera externa y extremadamente tenue de nuestro astro. Así, pues, Chapman

imaginó que la corona se expandía hacia el espacio exterior y se renovaba

incesantemente en la superficie solar, donde las partículas cargadas fluirían

continuamente y perturbarían el campo magnético terrestre a su paso por la zona.

Tal sugerencia resultó virtualmente irrefutable en la década de 1950 gracias a los

trabajos del astrofísico alemán Ludwig Franz Biermann. Durante medio siglo se había

creído que las colas de los cometas —que apuntaban siempre en dirección contraria al

Sol y se alargaban paulatinamente cuanto más se acercaba el cometa al Sol— se

formaban a causa de la presión ejercida por la luz solar. Pero, aunque existe tal

presión, Biermann demostró que no bastaba para originar la cola cometaria. Ello

requería algo más potente y capaz de dar un impulso mucho mayor; y ese algo sólo

podían ser las partículas cargadas. El físico americano Eugene Norman Parker abogó

también por el flujo constante de partículas, además de las ráfagas adicionales que

acompañarían a las fulguraciones solares, y en 1958 dio a tal efecto el nombre de

«viento solar». Finalmente, se comprobó la existencia de ese viento solar gracias a los

satélites soviéticos Lunik I y Lunik II, que orbitaron la Luna durante el bienio de 1959-

1960, y al ensayo planetario americano del Mariner II, que pasó cerca de Venus en

1962.

El viento solar no es un fenómeno local. Todo induce a creer que conserva la densidad



suficiente para hacerse perceptible por lo menos hasta la órbita de Saturno. Cerca de

la Tierra, las partículas del viento solar llevan una velocidad variable, que puede oscilar

entre los 350 y los 700 km/seg. Su existencia representa una pérdida para el Sol —

millones de toneladas de materia por segundo—; pero aunque esto parezca

descomunal a escala humana, constituye una insignificancia a escala solar. Desde su

nacimiento, el Sol ha cedido al viento solar sólo una centésima parte del 1 % de su

masa.

Es muy posible que el viento solar afecte a la vida diaria del hombre. Aparte su



187

influencia sobre el campo magnético, las partículas cargadas de la atmósfera superior

pueden determinar ulteriores efectos en la evolución meteorológica de la Tierra. Si

fuera así, el flujo y reflujo del viento solar podrían constituir elementos adicionales de

ayuda para el pronóstico del tiempo.

La magnetosfera

Los satélites artificiales descubrieron un efecto imprevisto del viento solar. Una de las

primeras misiones confiadas a los satélites artificiales fue la de medir la radiación en

los niveles superiores de la atmósfera y en el espacio próximo, particularmente la

intensidad de los rayos cósmicos (partículas cargadas de energía especialmente

elevada). ¿Qué intensidad tiene esta radiación más allá del escudo atmosférico? Los

satélites iban provistos de «contadores Geiger» —desarrollados, en 1928, por el físico

alemán Hans Geiger—, los cuales miden de la siguiente forma las partículas

radiactivas: El géiger consta de una caja que contiene gas a un voltaje no lo

suficientemente elevado como para desencadenar el paso de una corriente a través de

él. Cuando la partícula, de elevada energía, de una radiación, penetra en la caja,

convierte en un ion un átomo del gas. Este ion, impulsado por la energía del impacto,

incide sobre los átomos vecinos y forma más iones, los cuales, a su vez, chocan con

sus vecinos, para seguir el proceso de formación. La lluvia de iones resultante puede

transportar una corriente eléctrica, y durante una fracción de segundo fluye una

corriente a través del contador. Este impulso eléctrico es enviado a la Tierra

telemétricamente. De este modo, el instrumento cuenta las partículas, o flujo de

radiación, en el lugar en que éste se ha producido.

Cuando se colocó en órbita, el 31 de enero de 1958, el primer satélite americano, el

Explorer I, su contador detectó aproximadamente las esperadas concentraciones de

partículas a alturas de varios centenares de kilómetros. Pero a mayores alturas —el



Explorer I llegó hasta los 2.800 km— descendió el número de partículas detectadas,

número que, en ocasiones, llegó hasta cero. Creyóse que esto se debería a algún fallo

del contador. Posteriormente se comprobó que no ocurrió esto, pues el Explorer III,

lanzado el 26 de marzo de 1958, y con un apogeo de 3.378 km, registró el mismo

fenómeno. Igualmente sucedió con el satélite soviético Sputnik III, lanzado el 15 de

mayo de 1958.

James A. van Alien, de la Universidad de lowa —director del programa de radiación

cósmica— y sus colaboradores sugirieron una posible explicación. Según ellos, si el

recuento de partículas radiactivas descendía virtualmente a cero, no era debido a que

hubiese poca o ninguna radiación, sino, por el contrario, a que había demasiada. El

instrumento no podía detectar todas las partículas que entraban en el mismo y, en

consecuencia, dejaba de funcionar. (El fenómeno sería análogo a la ceguera

momentánea del ojo humano ante una luz excesivamente brillante.)

El Explorer IV, lanzado el 26 de julio de 1958, iba provisto de contadores especiales,

diseñados para responder a grandes sobrecargas. Por ejemplo, uno de ellos iba

recubierto por una delgada capa de plomo —que desempeñaría una función similar a la

de las gafas de sol—, la cual lo protegía de la mayor parte de la radiación. Esta vez los

contadores registraron algo distinto. Demostraron que era correcta la teoría de

«exceso de radiación». El Explorer IV, que alcanzó los 2.200 km de altura, envió a la

Tierra unos recuentos que, una vez descartado el efecto protector de su estado,

demostraron que la intensidad de la radiación en aquella zona era mucho más alta que

la imaginada por los científicos. Era tan intensa, que suponía un peligro mortal para los

futuros astronautas.

Se comprobó que los satélites Explorer habían penetrado sólo en las regiones más

bajas de este inmenso campo de radiación. A finales de 1958, los dos satélites

lanzados por Estados Unidos en dirección a la Luna (llamados por ello «sondas

lunares») —el Pioneer I, que llegó hasta los 112.000 km, y el Pioneer III, que alcanzó

los 104.000—, mostraron que existían dos cinturones principales de radiación en torno

a la Tierra. Fueron denominados «cinturones de radiación de Van Alien». Más tarde se

les dio el nombre de «magnetosiera», para equipararlos con otros puntos del espacio

en los contornos de la Tierra (fig. 5.6).

188


Al principio se creyó que la magnetosfera estaba dispuesta simétricamente alrededor

de la Tierra —o sea, que era algo así como una inmensa rosquilla—, igual que las

líneas magnéticas de fuerzas. Pero esta noción se vino abajo cuando los satélites

enviaron datos con noticias muy distintas. Sobre todo en 1963, los satélites Explorer



XIV e Imp-I describieron órbitas elípticas proyectadas con objeto de traspasar la

magnetosfera, si fuera posible.

Pues bien, resultó que la magnetosfera tenía un límite claramente definido, la

«magnetopausa», que era empujada hacia la Tierra por el viento solar en la parte

iluminada de nuestro planeta; pero ella se revolvía y, contorneando la Tierra, se

extendía hasta enormes distancias, en la parte ocupada por la oscuridad. La

magnetopausa está a unos 64.000 km de la Tierra en dirección al Sol, pero las colas

que se deslizan por el otro lado tal vez se extiendan en el espacio casi 2 millones de

kilómetros. En 1966, el satélite soviético Lunik X detectó, mientras orbitaba la Luna,

un débil campo magnético en torno a aquel mundo, que probablemente sería la cola de

la magnetosfera terrestre que pasaba de largo.

La captura, a lo largo de las líneas de fuerza magnética, de las partículas cargadas

había sido predicha, en la década de 1950, por un griego aficionado a la Ciencia,

Nicholas Christofilos, el cual envió sus cálculos a científicos dedicados a tales

investigaciones, sin que nadie les prestase demasiada atención. (En la Ciencia, como

en otros campos, los profesionales tienden a despreciar a los aficionados.) Sólo cuando

los profesionales llegaron por su cuenta a los mismos resultados que Christofilos, éste

obtuvo el debido reconocimiento científico y fue bien recibido en los laboratorios

americanos. Su idea sobre la captura de las partículas se llama hoy «efecto

Christofilos».

Para comprobar si este efecto se producía realmente en el espacio, Estados Unidos

lanzó, en agosto y setiembre de 1958, tres cohetes, provistos de bombas nucleares,

cohetes que se elevaron hasta los 482 km, donde se hizo estallar los artefactos. Este

189


experimento recibió el nombre de «proyecto Argus». El flujo de partículas cargadas

resultante de las explosiones nucleares se extendió a todo lo largo de las líneas de

fuerza, en las cuales quedó fuertemente atrapado. El cinturón radiactivo originado por

tales explosiones persistió un lapso de tiempo considerable; el Explorer IV lo detectó

en varias de sus órbitas alrededor de la Tierra. La nube de partículas provocó asimismo

débiles auroras boreales y perturbó durante algún tiempo las recepciones de radar.

Éste era el preludio de otros experimentos que afectaron e incluso modificaron la

envoltura de la Tierra próxima al espacio y algunos de los cuales se enfrentaron con la

oposición e indignación de ciertos sectores de la comunidad científica. El 9 de julio de

1962, una bomba nuclear, que se hizo estallar en el espacio, introdujo importantes

cambios en los cinturones Van Alien, cambios que persistieron durante un tiempo

considerable, como habían predicho algunos científicos contrarios al proyecto (entre

ellos, Fred Hoyle). Estas alteraciones de las fuerzas de la Naturaleza pueden interferir

nuestros conocimientos sobre la magnetosfera, por lo cual es poco probable que se

repitan en fecha próxima tales experimentos.

Posteriormente se realizaron intentos de esparcir una tenue nube de agujas de cobre

en una órbita alrededor de la Tierra, para comprobar su capacidad reflectante de las

señales de radio y establecer así un método infalible para las comunicaciones a larga

distancia. (La ionosfera es distorsionada de vez en cuando por las tormentas

magnéticas, por lo cual pueden fallar en un momento crucial las comunicaciones de

radio.)

Pese a las objeciones hechas por los radioastrónomos —quienes temían que se



produjeran interferencias con las señales de radio procedentes del espacio exterior—,

el plan (llamado «Proyecto West Ford», de Westford, Massachusetts, lugar donde se

desarrollaron los trabajos preliminares) se llevó a cabo el 9 de mayo de 1963. Se puso

en órbita un satélite cargado con 400 millones de agujas de cobre, cada una de ellas

de unos 18 mm de longitud y más finas que un cabello humano. Las agujas fueron

proyectadas y se esparcieron lentamente en una faja en torno al planeta, y, tal como

se esperaba, reflejaron las ondas de radio. Sin embargo, para que resultara práctico se

necesitaría un cinturón mucho más espeso, y creemos muy poco probable que en este

caso se pudiesen vencer las objeciones de los radioastrónomos.

Magnetosferas planetarias

Naturalmente, los científicos tuvieron curiosidad por averiguar si existía un cinturón de

radiaciones en los cuerpos celestes distintos a la Tierra. Si la teoría de Elsasser era

correcta, un cuerpo planetario debería cumplir dos requerimientos a fin de poseer una

magnetosfera apreciable: debe existir un núcleo líquido y eléctricamente conductor, en

que pueda establecerse este remolino. Por ejemplo, la Luna es de baja densidad y lo

suficientemente pequeña como para no ser muy cálida en su centro, y casi ciertamente

no contiene ningún núcleo metálico en fusión. Y aunque así fuese, la Luna gira

demasiado despacio para establecer un remolino. Por lo tanto, la Luna no debía tener

un campo magnético de cualquier consideración en amplios núcleos. Sin embargo, por

clara que pudiese ser dicha deducción, siempre ayuda practicar una medición directa, y

las sondas de cohetes pueden llevar a cabo con facilidad semejantes mediciones.

En efecto, las primeras sondas lunares, las Lunik I lanzadas por los soviéticos (2 de

enero de 1959) y Lunik II (setiembre de 1959), no encontraron señales de cinturones

de radiación en la Luna, y el descubrimiento fue confirmado a partir de entonces en

cualquier tipo de enfoque de la Luna.

Venus es un caso más interesante. Tiene casi igual masa y es casi tan densa como la

Tierra, y ciertamente debe poseer un núcleo metálico líquido parecido al terrestre. Sin

embargo, Venus gira con gran lentitud, incluso más lentamente que la Luna. La sonda

de Venus, Mariner II, en 1962, y todas las sondas venusinas desde entonces han

estado de acuerdo en que, virtualmente, Venus carece de campo magnético. Éste

(resultante posiblemente de los efectos conductores de la ionosfera de su densa

atmósfera) es ciertamente de menos de 1/20.000 respecto de la intensidad del de la

Tierra.


190

Mercurio es también denso y debe de tener un núcleo metálico, pero, al igual que

Venus, gira muy lentamente. El Mariner X, que pasó rozando Mercurio en 1973 y en

1974, detectó un débil campo magnético, en cierto modo más fuerte que el de Venus,

y sin atmósfera como elemento coadyuvante. Por débil que sea, el campo magnético

de Mercurio es demasiado fuerte como para adscribirse al efecto Elsasser. Tal vez a

causa del tamaño de Mercurio (considerablemente menor que el de Venus o el de la

Tierra), su núcleo metálico está lo suficientemente frío como para ser ferromagnético y

poseer alguna ligera propiedad como imán permanente. No obstante, no podemos aún

decir si es de este modo.

Marte gira razonablemente de prisa, pero es más pequeño y menos denso que la

Tierra. Probablemente no posee un núcleo metálico líquido de cualquier tamaño, pero

incluso uno muy pequeño puede producir algún efecto, y Marte parece tener un

pequeño campo magnético, más fuerte que el de Venus aunque mucho más débil que

el de la Tierra.

Júpiter es algo muy distinto. Su masa gigante y su rápida rotación podrían hacer de él

un obvio candidato a poseer un campo magnético, si fuesen ciertos los conocimientos

de las características conductoras de su núcleo. Sin embargo, en 1955, cuando tales

conocimientos no existían y las sondas no se habían aún construido, dos astrónomos

norteamericanos, Bernard Burke y Kenneth Franklin, detectaron ondas de radio desde

Júpiter que no eran térmicas: es decir, que no surgían meramente por efectos de la

temperatura. Debían aparecer por alguna otra causa, tal vez por partículas de alta

energía atrapadas en un campo magnético. En 1959, Donald Drake interpretó así las

ondas de radio procedentes de Júpiter.

Las primeras sondas de Júpiter, Pioneer X y Pioneer XI, dieron una amplia confirmación

de la teoría. No tuvieron problemas en detectar un campo magnético (en comparación

con el de la Tierra, resultó gigantesco), incluso mucho más de lo que se esperaba en

este enorme planeta. La magnetosfera de Júpiter es unas 1.200 veces mayor que la de

la Tierra. Si fuese visible al ojo, llenaría una zona del cielo (tal y como lo vemos desde

la Tierra) que sería varias veces mayor que cuando se nos aparece la Luna. La

magnetosfera de Júpiter es 19.000 veces más intensa que la de la Tierra, y si unos

navios espaciales tripulados consiguen alguna vez llegar hasta el planeta, constituiría

una barrera mortífera para una aproximación más cercana, incluyendo a la mayoría de

los satélites galileanos.

Saturno posee asimismo un intenso campo magnético, uno intermedio en tamaño

entre el de Júpiter y el de la Tierra. No podemos decirlo aún a través de una

observación directa, pero parece razonable suponer que Urano y Neptuno también

poseen campos magnéticos que pueden ser más potentes que el de la Tierra. En todos

los gigantes gaseosos, la naturaleza de un núcleo líquido y conductor, sería o bien de

metal líquido o de hidrógeno metálico líquido, este último con mayor seguridad en el

caso de Júpiter y Saturno.

METEOROS Y METEORITOS

Ya los griegos sabían que las «estrellas fugaces» no eran estrellas en realidad, puesto

que, sin importar cuántas cayesen, su número permanecía invariable. Aristóteles creía

que una estrella fugaz, como fenómeno temporal, debía de producirse en el interior de

la atmósfera (y esta vez tuvo razón). En consecuencia, estos objetos recibieron el

nombre de «meteoros», o sea, «cosas en el aire». Los meteoros que llegan a alcanzar

la superficie de la Tierra se llaman «meteoritos».

Los antiguos presenciaron algunas caídas de meteoritos y descubrieron que eran

masas de hierro. Se dice que Hiparco de Nicea informó sobre una de estas caídas.

Según los musulmanes, la Kaaba la piedra negra de La Meca, es un meteorito que

debe su carácter sagrado a su origen celeste. Por su parte, La Iliada menciona una

masa de hierro tosco, ofrecida como uno de los premios en los juegos funerarios en

honor de Patroclo. Debió de haber sido de origen meteórico, puesto que en aquellos

tiempos se vivía aún en la Edad del Bronce y no se había desarrollado la metalurgia del

hierro. En realidad, en épocas tan lejanas como el año 3000 a. de J.C. debió de

191

emplearse hierro meteórico.



Durante el siglo XVIII, en pleno auge de la Ilustración, la Ciencia dio un paso atrás en

este sentido. Los que desdeñaban la superstición se reían de las historias de las

«piedras que caían del cielo». Los granjeros que se presentaron en la Academia

Francesa con muestras de meteoritos, fueron despedidos cortésmente, aunque con

visible impaciencia. Cuando, en 1807, dos estudiantes de Connecticut declararon que

habían presenciado la caída de un meteorito, el presidente, Thomas Jefferson —en una

de sus más desafortunadas observaciones—, afirmó que estaba más dispuesto a

aceptar que los profesores yanquis mentían, que el que las piedras cayesen del cielo.

Sin embargo, el 13 de noviembre de 1833, Estados Unidos se vieron sometidos a una

verdadera lluvia de meteoros del tipo llamado «leónidas» porque, al parecer, proceden

de un punto situado en la constelación de Leo. Durante algunas horas, el cielo se

convirtió en un impresionante castillo de fuegos artificiales. Se dice que ningún

meteorito llegó a alcanzar la superficie de la Tierra, pero el espectáculo estimuló el

estudio de los meteoros, y, por vez primera, los astrónomos lo consideraron

seriamente.

Hace unos años, el químico sueco Jóns Jakob Berzelius se trazó un programa para el

análisis químico de los meteoritos. Tales análisis han proporcionado a los astrónomos

una valiosa información sobre la edad general del Sistema Solar e incluso sobre la

composición química del Universo.

Meteoros

Anotando las épocas del año en que caía mayor número de meteoros, así como las

posiciones del cielo de las que parecían proceder, los observadores pudieron trazar las

órbitas de diversas nubes de meteoros. De este modo se supo que las lluvias de tales

objetos estelares se producían cuando la órbita de la Tierra interceptaba la de una

nube de meteoros.

¿Es posible que estas nubes de meteoros sean, en realidad, los despojos de cometas

desintegrados?

Cuando semejante polvo cometario penetra en la atmósfera, puede llevar a cabo una

enorme exhibición, como' ya sucediera en 1833. Una estrella fugaz tan brillante como

Venus penetra en la atmósfera como una mota que sólo pesa 1 gramo. Y algunos

meteoros visibles no llegan ni a 1/10.000 de esta masa.

El número total de meteoros que alcanzan la atmósfera de la Tierra puede calcularse, y

ha demostrado ser increíblemente amplio. Cada día existen más de 20.000 que pesan,

por lo menos, 1 gramo, y casi 200 millones más lo suficientemente grandes como para

formar un resplandor visible al ojo desnudo, y muchos miles de millones más de

tamaños más reducidos. Conocemos esos muy pequeños micrometeoros porque el J

aire se ha descubierto que contiene partículas de polvo de unas formas

desacostumbradas y con un elevado contenido en níquel, muy diferente al polvo

terrestre. Otra evidencia de la presencia de micrometeoros en vastas cantidades radica

en el leve resplandor en los cielos llamado luz zodiacal (que fue descubierto por

primera vez hacia 1700 por G. D. Cassini), así llamado porque es evidente sobre todo

en las proximidades del plano de la órbita terrestre, donde se presentan las

constelaciones del zodíaco. La luz zodiacal es muy poco luminosa y no puede verse

siquiera en una noche sin luna, a menos que las condiciones sean favorables. Es más

brillante cerca del horizonte donde el Sol se pone, o está a punto de salir, y en el lado

contrario del firmamento, donde existe una iluminación secundaria llamada el

Gegenscien (voz alemana para «luz opuesta»). La luz zodiacal difiere del resplandor

del aire: su espectro no tiene líneas de oxígeno atómico o de sodio atómico, pero es

únicamente luz solar reflejada y nada más. El agente reflectante responsable es el

polvo concentrado en el espacio en el plano de las órbitas planetarias: en resumen, de

los micrometeoros. Su número y tamaño pueden estimarse a partir de la intensidad de

la luz zodiacal. Los micrometeoros se cuentan en la actualidad con una nueva precisión

por medio de satélites como el Explorer XVI, lanzado en diciembre de 1962, y el

192


Pegasus I, lanzado el 16 de febrero de 1965. Para detectarlos, algunos de los satélites

se hallan recubiertos con bandas de un material sensible que señala cada golpe de

meteorito a través de una carga en la resistencia eléctrica. Otros registran estos

impactos a través de unos micrófonos sensibles detrás de la cobertura, y que captan

los sonidos claros y metálicos. Los conteos del satélite han indicado que unas 3.000

toneladas de materia meteórica penetran cada día en nuestra atmósfera, y las cinco

sextas partes de la misma consisten en micrometeoros demasiado pequeños para

detectarse como estrellas fugaces. Ésos micrometeoros pueden formar una tenue nube

de polvo encima de la Tierra, que se extiende, en decreciente densidad, durante unos

160.000 kilómetros, más o menos, antes de desvanecerse en la usual densidad de

materia en el espacio interplanetario.

La sonda de Venus Mariner II mostró que la concentración de polvo en el espacio es

sólo de 1/10.000 de la concentración cerca de la Tierra, que parece ser el centro de

una esfera de polvo. Fred Whipple sugiere que la Luna puede ser la fuente de la nube,

y que el polvo surgiría de la superficie lunar a causa de los impactos de meteoritos que

ha de resistir.

El geógrafo Hans Petterson, que ha estado particularmente interesado en el polvo

meteórico, tomó algunas muestras de aire, en 1957, en la cumbre de una montaña en

Hawai, que se encontraba muy alejada de las zonas de producción de polvo industrial,

respecto de lo que se puede conseguir en la Tierra. Sus descubrimientos le permitieron

averiguar que unos 5 millones de toneladas de polvo meteórico caen cada año sobre la

Tierra. (Existe una medición similar por parte de James M. Rosen, en 1964, empleando

instrumentos llevados a bordo de globos, y que da unas cifras de 4 millones de

toneladas, aunque algunos otros encuentran razonable situar las cifras en sólo unas

100.000 toneladas al año.) Hans Petterson trató de conseguir una idea acerca de la

caída en el pasado, analizando núcleos extraídos del fondo oceánico, de un polvo muy

rico en níquel. Descubrió que, en conjunto, existía más de todo ello en los sedimentos

superiores que en los inferiores; así, aunque la evidencia sea aún escasa, el índice de

bombardeo meteórico puede haber aumentado en épocas recientes. Este polvo

meteórico puede ser de directa importancia para todos nosotros, pues, según una

teoría adelantada por el físico australiano Edward George Bowen, en 1953, este polvo

sirve como núcleo para las gotas de agua. De ser así, la pauta de las lluvias terrestres

reflejaría los aumentos y disminuciones en la intensidad con que.nos bombardean los

micrometeoritos.



Meteoritos

Ocasionalmente, trozos de materia de un grosor como pequeñas partículas de grava,

incluso sustancialmente mayores, penetran en la atmósfera de la Tierra. Pueden ser

del tamaño suficiente como para sobrevivir al calor de la resistencia del aire mientras

se precipitan a través de la atmósfera a una velocidad de 12 a 65 kilómetros por

segundo, llegando al suelo. Ésos, como ya he mencionado antes, son los meteoritos.

Tales meteoritos se cree que son pequeños asteroides, específicamente los rozadores

de la Tierra, que se han acercado demasiado y han sufrido un accidente...

La mayoría de los meteoritos encontrados en el suelo (se conocen unos 1.700 en total,

de los cuales 35 pesan una tonelada cada uno) poseen hierro, y al parecer los

meteoritos férricos superan en número a los del tipo rocoso. Sin embargo, esta teoría

demostró ser errónea. Un trozo de hierro que yace medio enterrado en un campo

pedregoso es muy fácil de notar, mientras que una piedra entre otras piedras no lo es:

un meteorito rocoso, sin embargo, una vez investigado muestra diferencias

características en comparación con las rocas terrestres.

Cuando los astrónomos hicieron recuentos de los meteoritos, que en realidad eran

vistos caer, descubrieron que los meteoritos rocosos superaban a los férricos en la

proporción de 9 a 1. (Durante un tiempo, la mayoría de los meteoritos pétreos fueron

descubiertos en Kansas, lo cual puede parecer raro hasta que uno se percata de que,

en el suelo sedimentario y sin rocas de Kansas, una piedra es tan perceptible como lo

sería un fragmento de hierro en cualquier otra parte.)

193


Esos dos tipos de meteoritos se cree que se originan de la siguiente manera. En la

juventud del Sistema Solar, los asteroides pueden haber sido más grandes, de

promedio, de como lo son ahora. Una vez formados, e impedida cualquier posterior

consolidación por las perturbaciones de Júpiter, sufrieron colisiones entre ellos mismos

y roturas. Sin embargo, antes de que esto sucediese, los asteroides pueden haber

estado lo suficiente calientes, en su formación, como para permitir cierta separación de

sus componentes, hundiéndose el hierro en el centro y forzando a la roca a situarse en

la capa exterior. Luego, cuando tales asteroides se fragmentaron, aparecieron como

restos tanto pétreos como metálicos, por lo que se encuentran en la actualidad en la

Tierra meteoritos de ambos tipos.

Sin embargo, los meteoritos tienen realmente un poder devastador. Por ejemplo, en

1908, el impacto de uno de ellos en el norte de Siberia abrió un cráter de 45 m de

diámetro y derribó árboles en un radio de 32 km. Por fortuna cayó en una zona

desierta de la tundra. Si hubiese caído, a partir del mismo lugar del cielo, 5 horas más

tarde, teniendo en cuenta la rotación de la Tierra, podría haber hecho impacto en San

Petersburgo, a la sazón capital de Rusia. La ciudad habría quedado entonces devastada

como por una bomba de hidrógeno. Según uno de los cálculos hechos, el meteorito

tendría una masa de 40.000 t. Este caso Tunguska (así llamado por la localidad en que

se produjo la colisión), presenta ciertos misterios. La inaccesibilidad de este lugar, y la

confusión de la guerra y de la revolución que tuvieron lugar poco después, hicieron

imposible el investigar la zona durante muchos años. Una vez investigada, no

aparecieron trazas de material meteórico. En años recientes, un escritor soviético de

ciencia-ficción inventó la radiactividad en el lugar como parte de una historia, una

invención que fue tomada como un descubrimiento muy sobrio por muchas personas,

que tenían un afecto natural por los sensacionalismos. Como resultado de todo ello, se

desarrollaron muchas teorías disparatadas, desde la de una colisión con un

miniagujero negro hasta la de una explosión nuclear extra terrestre. La explicación

racional más plausible es que el meteoro que cayó era de naturaleza gélida y,

probablemente, un cometa muy pequeño, o un trozo de otro mayor (posiblemente el

cometa Encke). Estalló en el aire poco antes de la colisión y produjo daños inmensos

sin producir materia meteórica de roca o metal. Desde entonces, el impacto más

importante fue el registrado, en 1947, cerca de Vladivostok (como vemos, otra vez en

Siberia). Hay señales de impactos aún más violentos, que se remontan a épocas

prehistóricas. Por ejemplo, en Coconino County (Arizona) existe un cráter, redondo, de

unos 1.260 m de diámetro y 180 m de profundidad, circuido por un reborde de tierra

de 30 a 45 m de altura. Tiene el aspecto de un cráter lunar en miniatura. Hace tiempo

se pensaba que quizá pudiera tratarse de un volcán extinguido; pero un ingeniero de

minas, Daniel Moreau Barringer, insistió en que era el resultado de una colisión

meteórica, por lo cual el agujero en cuestión lleva hoy el nombre de «cráter

Barringer». Está rodeado por masas de hierro meteórico, que pesan miles o quizá

millones de toneladas en total. A pesar de que hasta ahora se ha extraído sólo una

pequeña parte, esa pequeña parte es superior al hierro meteórico extraído en todo el

mundo. El origen meteórico de este cráter fue confirmado, en 1960, por el

descubrimiento de formas de sílice que sólo pudieron producirse como consecuencia de

las enormes presiones y temperaturas que acompañaron al impacto meteórico.

El cráter Barringer, que se abriría en el desierto hace unos 25.000 años, se conserva

bastante bien. En otros lugares del mundo, cráteres similares hubiesen quedado

ocultos por la erosión del agua y el avance de la vegetación. Por ejemplo, las

observaciones realizadas desde el aire, han permitido distinguir formaciones circulares,

que al principio pasaron inadvertidas, llenas, en parte, de agua y maleza, que son

también, casi con certeza, de origen meteórico. Algunas han sido descubiertas en

Canadá, entre ellas, el cráter Brent. en el Ontario Central y el cráter Chubb en el norte

de Quebec —cada uno de ellos, con un diámetro de más de 3 km—, así como el cráter

Ashanti en Ghana, cuyo diámetro mide más de 9 km. Todos ellos tienen, por lo menos,

un millón de años de antigüedad. Se conocen 14 de estos «cráteres fósiles», y algunos

signos geológicos sugieren la existencia de otros muchos.

Los tamaños de los cráteres lunares que podemos contemplar con los telescopios

oscilan entre agujeros no mayores que el cráter Barringer hasta gigantes de 240 km

de diámetro. La Luna, que no tiene aire, agua ni vida, es un museo casi perfecto para

194


los cráteres, puesto que no están sometidos a desgaste alguno, si exceptuamos la

lenta acción de los violentos cambios térmicos, resultantes de la alteración, cada dos

semanas, del día y la noche lunares. Quizá la Tierra estaría tan acribillada como la

Luna si no fuese por la acción «cicatrizante» del viento, el agua y los seres vivientes.

Al principio se creía que los cráteres de la Luna eran de origen volcánico, pero en

realidad no se parecen, en su estructura, a los cráteres volcánicos terrestres.

Hacia la década de 1890 empezó a imponerse la teoría de que los cráteres se habían

originado como resultado de impactos meteóricos, y hoy goza de una aceptación

general.

Según esta teoría, los grandes «mares» o sea, esas inmensas llanuras, más o menos

circulares y relativamente libres de cráteres, habrían sido formados por el impacto de

meteoros excepcionalmente voluminosos. Se reforzó tal opinión en 1968, cuando los

satélites que daban vueltas en torno a la Luna experimentaron inesperadas

desviaciones en sus órbitas. La naturaleza de tales desviaciones hizo llegar a esta

conclusión: Algunas partes de la superficie lunar tienen una densidad superior al

promedio; ello hace que se incremente levemente la atracción gravitatoria en dichas

partes, por lo cual reaccionan los satélites que vuelan sobre ellas. Estas áreas de

mayor densidad, que coinciden, aparentemente, con los mares, recibieron la

denominación de mascones (abreviatura de mass-concentrations, o concentraciones de

masas). La deducción más lógica fue la de que los grandes meteoros férricos se

hallaban enterrados bajo la superficie y eran más densos que la materia rocosa, cuyo

porcentaje es el más alto en la composición de la corteza lunar. Apenas transcurrido un

año desde este descubrimiento, se había detectado ya por lo menos una docena de

mascones.

Por otra parte, se disipó el cuadro de la Luna como «mundo muerto», donde no era

posible la acción volcánica. El 3 de noviembre de 1958, el astrónomo ruso N. A.

Kozyrev observó una mancha rojiza en el cráter Alphonsus. (Mucho antes, nada menos

que en 1780, William Herschel informó sobre la aparición de manchas rojizas en la

Luna.) Los análisis espectroscópicos de Kozyrev revelaron claramente, al parecer, que

aquello obedecía a una proyección de gas y polvo. Desde entonces se han visto otras

manchas rojas durante breves instantes, y hoy se tiene casi la certeza de que en la

Luna se produce casi ocasionalmente actividad volcánica. Durante el eclipse total de

Luna, en diciembre de 1964, se hizo un significativo descubrimiento: nada menos que

300 cráteres tenían una temperatura más alta que los parajes circundantes, aunque no

emitían el calor suficiente para llegar a la incandescencia.

Por lo general, los mundos carentes de aire, como Mercurio y los satélites de Marte,

Júpiter y Saturno, se hallan ampliamente esparcidos de cráteres que conmemoran el

bombardeo que tuvo lugar hace 4 mil millones de años, e incluso antes, cuando los

mundos se formaron por acreción de planetesimales. Nada ha ocurrido desde entonces

que eliminara dichas señales.

Venus es pobre en cráteres, tal vez a causa de los efectos erosivos de su densa

atmósfera. Un hemisferio de Marte es pobre en cráteres, tal vez debido a que la acción

volcánica ha construido una corteza nueva, ío no tiene virtualmente cráteres, a causa

de la lava elaborada por sus volcanes en actividad. Europa carece de cráteres, pues los

impactos meteóricos se abrieron paso a través del glaciar circundante hasta el líquido

que se encontraba debajo, mientras que el líquido expuesto se hiela de nuevo con

rapidez y «sana» la abertura.

Los meteoritos, como las únicas piezas de materia extraterrestre que podemos

examinar, resultan excitantes no sólo para los astrónomos, geólogos, químicos y

metalúrgicos, sino también para los cosmólogos, que se hallan preocupados por los

orígenes del Universo y del Sistema Solar. Entre los meteoritos figuran

desconcertantes objetos vitreos, encontrados en varios lugares de la Tierra. El primero

fue hallado en 1787, en lo que es ahora la Checoslovaquia occidental. Los ejemplos

australianos fueron detectados en 1864. Recibieron el nombre de tectitas, de una

palabra griega que significa «fundido», a causa de que parecen haberlo hecho así a su

195

paso a través de la atmósfera.



En 1936 un astrónomo norteamericano, Harvey Harlow Ninninger sugirió que las

tectitas eran los restos de material salpicado forzado a abandonar la superficie de la

Luna a causa del impacto de grandes meteoros y captados por el campo gravitatorio

de la Tierra. Una particularmente difundida serie de tectitas fue encontrada en

Australia y en el Sudeste asiático (con muchos de ellos dragados del fondo del océano

índico). Al parecer son las más jóvenes de las tectitas, con sólo una edad de 700.000

años. De forma concebible, pueden haberse producido por el gran impacto meteórico

que formó el cráter Tycho (el más joven de los espectaculares cráteres lunares) en la

Luna. El hecho de que esta colisión parezca haber coincidido con la más reciente

inversión del campo magnético terrestre, ha dado origen a algunas especulaciones de

que las fuertemente irregulares series de dichas inversiones puedan señalar otra de

tales catástrofes Tierra-Luna.

Otra inusual clasificación de los meteoritos son los que se han encontrado en la

Antártida. En realidad, cualquier meteorito, ya sea pétreo o metálico, que yazga en el

vasto casquete antartico, constituye inevitablemente algo muy perceptible. En efecto,

un objeto sólido en cualquier parte de dicho continente, que no sea hielo o de origen

humano, ha de ser por fuerza un meteorito. Y una vez aterriza, permanece intocado

(por lo menos durante los últimos 20 millones de años), a menos que quede enterrado

en la nieve o lo haya encontrado algún pingüino emperador.

Nunca muchos seres humanos se han hallado presentes en cualquier momento en la

Antártida, y nunca el continente ha sido avizorado demasiado de cerca, por lo que,

hasta 1969, sólo se han encontrado cuatro meteoritos, todos ellos por accidente. En

1969, un grupo de geólogos japoneses topó con nueve meteoritos esparcidos muy

cerca. Los mismos suscitaron el interés general de los científicos, por lo que se

encontraron más meteoritos. En 1983, ya se habían hallado más de 5.000 fragmentos

meteóricos sobre el helado continente, en realidad muchos más que en el resto del

mundo. (La Antártida no es un sitio especialmente buscado para la colisión, sino que

los meteoritos son mucho más fáciles de localizar allí.)

Algunos de los meteoritos de la Antártida son asimismo extraños. En enero de 1982,

se descubrió un fragmento meteorítico de color pardoverdoso y, en los análisis

correspondientes, demostró tener una composición notablemente parecida a alguna de

las rocas lunares traídas a la Tierra por los astronautas. No existe una manera fácil de

demostrar cómo un trozo de material lunar pudo haber sido proyectado al espacio y

alcanzado la Tierra, pero ciertamente existe esa posibilidad.

Asimismo, algunos fragmentos meteóricos de la Antártida, cuando se calentaron,

despidieron gases, que demostraron tener una composición muy parecida a la

atmósfera marciana. Y lo que es más, esos meteoritos al parecer sólo tenían una

antigüedad de 1.300 millones de años, en vez de los 4.500 millones de los meteoritos

ordinarios. Hace 1.300 millones de años, los volcanes de Marte permanecían en

violenta actividad. Es posible que algunos de esos meteoritos sean trozos de lava

volcánica marciana que de algún modo resultaron despedidos hasta la Tierra.

La edad de los meteoritos (computada por métodos que describiré en el capítulo 7)

constituye una importante herramienta, todo hay que decirlo, para la determinación de

la edad de la Tierra y del Sistema Solar en general.

EL AIRE: CÓMO SE CONSERVA Y CÓMO SE CONSIGUE

Quizá no debería sorprendernos tanto la forma en que la Tierra consiguió su

atmósfera, como la manera en que ha logrado retenerla a través de los períodos en

que ha estado girando sobre sí misma y corriendo a través del espacio. La respuesta a

este último problema requiere la ayuda del concepto «velocidad de escape».

Velocidad de escape

Si un objeto es lanzado desde la Tierra hacia arriba, la fuerza de la gravedad va

196

aminorando gradualmente el empuje del objeto hacia arriba, hasta determinar,



primero, una detención momentánea, y luego su caída. Si la fuerza de la gravedad

fuese la misma durante todo el recorrido, la altura alcanzada por el objeto sería

proporcional a su velocidad inicial; es decir, que lanzado a más de 3 km/hora,

alcanzaría una altura 4 veces superior a la que conseguiría si fuese disparado a sólo

1.600 m/hora (pues la energía aumenta proporcionalmente al cuadrado de la

velocidad).

Pero, como es natural, la fuerza de la gravedad no permanece constante, sino que se

debilita lentamente con la altura. (Para ser exactos, se debilita de acuerdo con el

cuadrado de la distancia a partir del centro de la Tierra.) Por ejemplo, si disparamos

hacia arriba un objeto a la velocidad de 1.600 m/ seg, alcanzará una altura de 129 km

antes de detenerse y caer (si prescindimos de la resistencia del aire). Y si

disparásemos el mismo objeto a 3.200 m/seg, se elevaría a una altura 4 veces mayor.

A los 129 km de altura, la fuerza de la gravedad terrestre es sensiblemente inferior

que a nivel del suelo, de modo que el posterior vuelo del objeto estaría sometido a una

menor atracción gravitatoria. De hecho, el objeto alcanzaría los 563 km, no los 514.

Dada una velocidad centrífuga de 10 km/seg, un objeto ascenderá hasta los 41.500

km de altura. En este punto, la fuerza de la gravedad es unas 40 veces menor que

sobre la superficie de la Tierra. Si añadimos sólo 160 m/seg a la velocidad inicial del

objeto (por ejemplo, lanzado a 10,6 km/seg), alcanzaría los 55.000 km.

Puede calcularse que un objeto lanzado a la velocidad inicial de 11,23 km/seg, no

caerá nunca a la Tierra. A pesar de que la gravedad terrestre irá aminorando

gradualmente la velocidad del objeto, su efecto declinará poco a poco, de modo que

nunca conseguirá detenerlo por completo (velocidad cero) respecto a la Tierra. (Y ello,

pese a la conocida frase de «todo lo que sube tiene que bajar».) El Lunik I y el Pioneer



IV, disparados a velocidades de más de 11,26 km/seg, nunca regresarán.

Por tanto, la «velocidad de escape» de la Tierra es de 11,23 km/seg. La velocidad de

escape de cualquier cuerpo astronómico puede calcularse a partir de su masa y su

tamaño. La de la Luna es de sólo 2.400 m/seg; la de Marte, de 5.148 m/seg; la de

Saturno, de 37 km/seg; la de Júpiter, el coloso del Sistema Solar, de 61 km/seg.

Todo esto se halla relacionado directamente con la retención, por parte de la Tierra, de

su atmósfera. Los átomos y las moléculas del aire están volando constantemente como

pequeñísimos cohetes. Sus velocidades particulares están sometidas a grandes

variaciones, y sólo pueden describirse estadísticamente: por ejemplo, dando la fracción

de las moléculas que se mueven a velocidad superior a la fijada, o dando la velocidad

media en determinadas condiciones. La fórmula para realizarlo fue elaborada, en 1860,

por James Clerk Maxwell y el físico austríaco Ludwig Boltzmann, por lo cual recibe el

nombre de «ley de Maxwell-Boltzmann».

La velocidad media de las moléculas de oxígeno en el aire a la temperatura ambiente

es de 0,4 km/seg. La molécula de hidrógeno, 16 veces menos pesada, suele moverse a

una velocidad 4 veces mayor, es decir, 1,6 km/seg, ya que, de acuerdo con la citada

ley de Maxwell-Boltzmann, la velocidad de una determinada partícula a una

temperatura dada es inversamente proporcional a la raíz cuadrada de su peso

molecular.

Es importante recordar que se trata sólo de velocidades medias. La mitad de las

moléculas van más de prisa que el promedio; un determinado porcentaje de las

mismas va dos veces más rápido que el promedio; un menor porcentaje va 3 veces

más rápido, etc. De hecho, un escaso porcentaje de las moléculas de hidrógeno y

oxígeno de la atmósfera se mueve a velocidades superiores a los 11,26 km/seg, o sea,

la velocidad de escape.

Estas partículas no pueden escapar en los niveles bajos de la atmósfera, porque

aminoran su marcha las colisiones con sus vecinas más lentas; en cambio, en la

atmósfera superior son mucho mayores sus probabilidades de escape. Ello se debe, en

primer lugar, a que la radiación del Sol, al llegar hasta allí sin traba alguna, estimula a

197


buen número de partículas, que adquieren una enorme energía y grandes velocidades.

En segundo lugar, a que la probabilidad de colisiones queda muy reducida en un aire

más tenue. Mientras que, en la superficie de la Tierra, una molécula se desplaza, por

término medio, sólo unos 0,001 mm, antes de chocar con una molécula vecina, a 104

km de altura, el camino que pueden recorrer sin entrar en colisión es de 10 cm, en

tanto que a los 225 km es ya de 1 km. Aquí, el promedio de colisiones sufridas por un

átomo o una molécula es sólo de 1/seg, frente a las 5.000 millones por segundo a

nivel del mar. De este modo, una partícula rápida a 160 km o más de altura, tiene

grandes posibilidades de escapar de la Tierra. Si se mueve hacia arriba, se va

desplazando por regiones cada vez menos densas y, por tanto, con menores

probabilidades de colisión, de modo que, al fin, puede escapar a veces al espacio

interplanetario, para no volver nunca más.

En otras palabras: la atmósfera de la Tierra tiene «fugas», aunque por lo general, de

las moléculas más ligeras. El oxígeno y el nitrógeno son bastante pesados, por lo cual,

sólo una pequeña fracción de las moléculas de este tipo consigue la velocidad de

escape. De aquí que no sea mucho el oxígeno y el nitrógeno que ha perdido la Tierra

desde su formación. Por su parte, el hidrógeno y el helio llegan fácilmente a la

velocidad de escape. Así, no debe sorprendernos que nuestra atmósfera no contenga

prácticamente hidrógeno ni helio.

Los planetas de mayor masa, como Júpiter y Saturno, pueden retener bien el

hidrógeno y el helio, por lo cual sus atmósferas son más amplias y consistentes y

están compuestas, en su mayor parte, por estos elementos, que, a fin de cuentas, son

las sustancias más corrientes en el Universo. El hidrógeno, que existe en enormes

cantidades, reacciona en seguida con los demás elementos presentes, por lo cual el

carbono, el nitrógeno y el oxígeno sólo pueden presentarse en forma de compuestos

hidrogenados, es decir, metano (CH4), amoníaco (NH3) y agua (H2O), respectivamente.

Aunque en la atmósfera de Júpiter el amoníaco y el metano se hallan presentes a una

concentración relativamente mínima de impurezas, logró descubrirlos, en 1931, el

astrónomo germanoamericano Rupert Wildt, gracias a que estos compuestos dan en el

espectro unas bandas de absorción muy claras, lo cual no ocurre con el helio y el

hidrógeno. La presencia de helio e hidrógeno se detectó en 1952 con ayuda de

métodos indirectos. Y, naturalmente, las sondas de Júpiter, a partir de 1973, han

confirmado esos hallazgos y nos han proporcionado ulteriores detalles.

Moviéndose en dirección opuesta, un planeta pequeño como Marte tiene menos

capacidad para retener las moléculas relativamente pesadas, por lo cual, la densidad

de su atmósfera equivale a una décima parte de la nuestra. La Luna, con su reducida

velocidad de escape, no puede retener una atmósfera propiamente dicha y, por tanto,

carece de aire.

La temperatura es un factor tan importante como la gravedad. La ecuación de

Maxwell-Boltzmann dice que la velocidad media de las partículas es proporcional a la

raíz cuadrada de la temperatura absoluta. Si la Tierra tuviese la temperatura de la

superficie del Sol, todos los átomos y moléculas de su atmósfera aumentarían la

velocidad de 4 a 5 veces y, en consecuencia, la Tierra no podría retener ya sus

moléculas de oxígeno y nitrógeno, del mismo modo que no puede hacerlo con las de

hidrógeno y helio.

Así, Mercurio tiene 2,2 veces la gravedad superficial de la Luna y debería hacerlo mejor

para conservar una atmósfera. Sin embargo, Mercurio se encuentra considerablemente

más caliente que la Luna y ha acabado tan sin aire como ésta.

Marte posee una gravedad superficial sólo levemente mayor que la de Mercurio, pero

se halla en extremo más frío que éste, e incluso que la Tierra o la Luna. El que Marte

se las apañe para tener una tenue atmósfera es más a causa de su baja temperatura

que de su moderadamente elevada gravedad superficial. Los satélites de Júpiter se

hallan aún más fríos que Marte, pero poseen asimismo una gravedad superficial del

mismo calibre que la de la Luna, y por lo tanto no pueden retener una atmósfera.

Titán, el satélite mayor de Saturno, está tan frío, no obstante, que puede conservar

una densa atmósfera de nitrógeno. Tal vez Tritón, el satélite mayor de Neptuno, pueda

198

conseguir lo mismo.



La atmósfera original

El hecho que la Tierra tenga atmósfera constituye un poderoso argumento en contra

de la teoría de que tanto ella como los demás planetas del Sistema Solar tuvieron su

origen a partir de alguna catástrofe cósmica, como la colisión entre otro sol y el

nuestro. Más bien argumenta en favor de la teoría de la nube de polvo y planetesimal.

A medida que el polvo y el gas de las nubes se condensaron para formar

planetesimales, y éstos, a su vez, se unieron para constituir un cuerpo planetario, el

gas quedó atrapado en el interior de una masa esponjosa, de la misma forma que

queda el aire en el interior de un montón de nieve. La subsiguiente contracción de la

masa por la acción de la gravedad pudo entonces haber obligado a los gases a escapar

de su interior. El que un determinado gas quedase retenido en la Tierra se debió, en

parte, a su reactividad química. El helio y el neón, pese a que debían figurar entre los

gases más comunes en la nube original, son tan químicamente inertes, que no forman

compuestos, por lo cual pudieron escapar como gases. Por tanto, las concentraciones

de helio y neón en la Tierra son porciones insignificantes de sus concentraciones en

todo el Universo. Se ha calculado, por ejemplo, que la Tierra ha retenido sólo uno de

cada 50.000 millones de átomos de neón que había en la nube de gas original, y que

nuestra atmósfera tiene aún menos —si es que tiene alguno— de los átomos de helio

originales. Digo «si es que tiene alguno» porque, aun cuando todavía se encuentra

algo de helio en nuestra atmósfera, éste puede proceder de la desintegración de

elementos radiactivos y de los escapes de dicho gas atrapado en cavidades

subterráneas.

Por otra parte, el hidrógeno, aunque más ligero que el helio o el neón, ha sido mejor

captado por estar combinado con otras sustancias, principalmente con el oxígeno, para

formar agua. Se calcula que la Tierra sigue teniendo uno de cada 5 millones de átomos

de hidrógeno de los que se encontraban en la nube original.

El nitrógeno y el oxígeno ilustran con mayor claridad este aspecto químico. A pesar de

que las moléculas de estos gases tienen una masa aproximadamente igual, la Tierra ha

conservado 1 de cada 6 de los átomos originales del oxígeno (altamente reactivo),

pero sólo uno de cada 800.000 del inerte nitrógeno. Al hablar de los gases de la

atmósfera incluimos el vapor de agua, con lo cual abordamos, inevitablemente, una

interesante cuestión: la del origen de los océanos. Durante las primeras fases de la

historia terrestre, el agua debió de estar presente en forma de vapor, aun cuando su

caldeamiento fue sólo moderado. Según algunos geólogos, por aquel entonces el agua

se concentró en la atmósfera como una densa nube de vapor, y al enfriarse la Tierra se

precipitó de forma torrencial, para formar el océano. En cambio, otros geólogos opinan

que la formación de nuestros océanos se debió mayormente al rezumamiento de agua

desde el interior de la Tierra. Los volcanes demuestran que todavía hay gran cantidad

de agua bajo la corteza terrestre, pues el gas que expulsan es, en su mayor parte,

vapor de agua. Si esto fuera cierto, el caudal de los océanos seguiría aumentando aún,

si bien lentamente.

Pero aquí cabe preguntarse si la atmósfera terrestre ha sido, desde su formación, tal

como lo es hoy. Nos parece muy improbable. En primer lugar, porque el oxígeno

molecular —cuya participación en el volumen de la atmósfera equivale a una quinta

parte— es una sustancia tan activa, que su presencia en forma libre resulta

extremadamente inverosímil, a menos que existiera una producción ininterrumpida del

mismo. Por añadidura, ningún otro planeta tiene una atmósfera comparable con la

nuestra, lo cual nos induce a pensar que su estado actual fue el resultado de unos

acontecimientos únicos, como, por ejemplo, la presencia de vida en nuestro planeta,

pero no en los otros. Harold Urey ha presentado elaborados argumentos para respaldar

el supuesto de que la atmósfera primigenia estaba compuesta por amoníaco y metano.

Los elementos predominantes en el Universo serían el hidrógeno, helio, carbono,

nitrógeno y oxígeno, si bien el hidrógeno superaría ampliamente a todos. Ante esta

preponderancia del hidrógeno, es posible que el carbono se combinara con él para

formar metano (CH4); seguidamente, el nitrógeno e hidrógeno formarían amoníaco

(NH3), y el oxígeno e hidrógeno, agua (H2O). Desde luego, el helio y el hidrógeno

199

sobrantes escaparían; el agua formaría los océanos; el metano y el amoníaco



constituirían la mayor parte de la atmósfera, pues al ser gases comparativamente

pesados, quedarían sometidos a la gravitación terrestre.

Aunque los planetas poseyeran, en general, la gravitación suficiente para formar una

atmósfera semejante, no todos podrían retenerla, ya que la radiación ultravioleta

emitida por el Sol introduciría ciertos cambios, cambios que serían ínfimos para los

planetas externos, que, por una parte, reciben una radiación comparativamente escasa

del lejano Sol, y, por otra, poseen vastas atmósferas, capaces de absorber una

radiación muy considerable sin experimentar cambios perceptibles. Quiere ello decir

que los planetas exteriores seguirán conservando su compleja atmósfera de hidrógenohelio-

amoníaco-metano.

Pero no ocurre lo mismo en los mundos interiores, como Marte, la Tierra, la Luna,

Venus y Mercurio. Entre éstos, la Luna y Mercurio son demasiado pequeños, o

demasiado cálidos, o ambas cosas, para retener una atmósfera perceptible. Por otro

lado, tenemos a Marte, la Tierra y Venus, todos ellos con tenues atmósferas,

integradas, principalmente, por amoníaco, metano y agua. ¿Qué habrá ocurrido aquí?

La radiación ultravioleta atacaría la atmósfera superior de la Tierra primigenia,

desintegrando las moléculas de agua en sus dos componentes: hidrógeno y oxígeno

(«fotodisociación»). El hidrógeno escaparía, y quedaría el oxígeno. Ahora bien, como

sus moléculas son reactivas, reaccionaría frente a casi todas las moléculas vecinas. Así

pues, se produciría una acción recíproca con el metano (CH4), para formar el anhídrido

carbónico (CO2) y el agua (H2O); asimismo, se originaría otra acción recíproca con el

amoníaco (NH3), para producir nitrógeno libre (N2) y agua.

Lenta, pero firmemente, la atmósfera pasaría del metano y el amoníaco al nitrógeno y

el anhídrido carbónico. Más tarde el nitrógeno tendería a reaccionar poco a poco con

los minerales de la corteza terrestre, para formar nitratos, cediendo al anhídrido

carbónico la mayor parte de la atmósfera.

Pero ahora podemos preguntarnos: ¿Proseguirá la fotodisociación del agua?

¿Continuará el escape de hidrógeno al espacio y la concentración de oxígeno en la

atmósfera? Y si el oxígeno se concentra sin encontrar ningún reactivo (pues no puede

haber una reacción adicional con el anhídrido carbónico), ¿no se agregará cierta

proporción de oxígeno molecular al anhídrido carbónico existente? La respuesta es:

¡No!


Cuando el anhídrido carbónico llega a ser el principal componente de la atmósfera, la

radiación ultravioleta no puede provocar más cambios mediante la disociación de la

molécula de agua. Tan pronto como empieza a concentrarse el oxígeno libre, se forma

una sutil capa de ozono en la atmósfera superior, capa que absorbe los rayos

ultravioleta y, al interceptarles el paso hacia la atmósfera inferior, impide toda

fotodisociación adicional. Una atmósfera constituida por anhídrido carbónico tiene

estabilidad.

Pero el anhídrido carbónico produce el efecto de invernadero. Si la atmósfera de

anhídrido carbónico es tenue y dista mucho del Sol, dicho efecto será inapreciable.

Éste es el caso de Marte, por ejemplo.

Supongamos, empero, que la atmósfera de un planeta tiene más semejanza con la

terrestre y dicho planeta se halla a la misma distancia del Sol o más cerca. Entonces el

efecto de invernadero sería enorme: la temperatura se elevaría y vaporizaría los

océanos con intensidad creciente. El vapor de agua se sumaría al efecto de

invernadero, acelerando el cambio y librando cantidades cada vez mayores de

anhídrido carbónico, a causa de los efectos térmicos sobre la corteza. Por último, el

planeta se caldearía enormemente, toda su agua pasaría a la atmósfera en forma de

vapor, su superficie quedaría oculta bajo nubes eternas y circuida por una densa

atmósfera de anhídrido carbónico.

Éste fue precisamente el caso de Venus, que tuvo que soportar un galopante efecto

200

invernadero. El poco calor adicional que recibió a través de encontrarse más cerca del

Sol que la Tierra, sirvió como detonante y para empezar el proceso.

Las cosas no se desarrollaron en la Tierra de la misma forma que en Marte o en venus.

El nitrógeno de su atmósfera no caló en la corteza para depositar una capa fina y fría

de anhídrido carbónico. Tampoco actuó el efecto de invernadero, para convertirla en

un asfixiante mundo desértico, aquí sucedió algo inopinado, y ese algo fue la aparición

de la vida, cuyo desarrollo se hizo ostensible incluso cuando la atmósfera estaba aún

en su fase de amoníaco-metano.

Las reacciones desencadenadas por la vida en los océanos de la Tierra desintegraron

los compuestos nitrogenados, los hicieron liberar el nitrógeno molecular y mantuvieron

grandes cantidades de este gas en la atmósfera. Por añadidura, las células adquirieron

una facultad especial para disociar el oxígeno e hidrógeno en las moléculas de agua,

aprovechando la energía de esa luz visible que el ozono no puede interceptar. El

hidrógeno se combinó con el anhídrido carbónico para formar las complicadas

moléculas que constituyen una célula, mientras que el oxígeno liberado se diluyó en la

atmósfera. Así, pues, gracias a la vida, la atmósfera terrestre pudo pasar del nitrógeno

y anhídrido carbónico, al nitrógeno y oxígeno. El efecto de invernadero se redujo a una

cantidad ínfima, y la Tierra conservó la frialdad suficiente para retener sus

inapreciables posesiones: un océano de agua líquida y una atmósfera dotada con un

gran porcentaje de oxígeno libre.

En realidad, nuestra atmósfera oxigenada afecta sólo a un 10 % aproximadamente de

la existencia terrestre, y es posible incluso que, unos 600 millones de años atrás, esa

atmósfera tuviera únicamente una décima parte del oxígeno que posee hoy.

Pero hoy lo tenemos, y debemos mostrarnos agradecidos por esa vida que hizo posible

la liberación del oxígeno atmosférico, y por ese oxígeno que, a su vez, hizo posible la

vida.



Yüklə 3,98 Mb.

Dostları ilə paylaş:
1   ...   18   19   20   21   22   23   24   25   ...   42




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©www.genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə