Categoría: Miscelánea

EL «MODUS OPERANDI» DE LA CIENCIA

EL «MODUS OPERANDI» DE LA CIENCIA

     La diferencia principal entre la Ciencia y lo que genéricamente podríamos llamar paraciencias no está en lo que cada una afirma, sino en el rigor y la solidez de los razonamientos y las pruebas en que se basan para hacer sus afirmaciones.  Lo que sigue es sólo un ejemplo de los muchos que podríamos elegir para evidenciar el «modus operandi» de la Ciencia.

A principios de la década de los 70 del siglo pasado los astrónomos iniciaron la búsqueda de emisión de rayos X en estrellas binarias con compañeros invisibles, utilizando satélites de telescopios de rayos X. Pronto apareció un candidato: el sistema conocido como Cygnus X-1.

Estudiando el espectro de luz de una estrella es posible deducir que está girando alrededor de un compañero invisible. Se llega a esta conclusión debido a que la estrella a veces se mueve hacia nosotros y a veces se aleja. Esto se sabe por la modificación del espectro de colores a consecuencia del efecto Doppler. En el caso de Cygnus X-1 se pudo deducir que da una vuelta cada 5 días alrededor de una compañera invisible. Estas observaciones hicieron que pareciera que la compañera invisible era un agujero negro o una estrella de neutrones. La única forma de distinguir entre una cosa u otra era pesándolas.

Pero, ¿cómo puede pesarse una estrella?  Con las leyes del movimiento de los cuerpos en órbita, descubiertas por Kepler y explicadas por Newton. Los datos que se necesitan para efectuar el cálculo son la velocidad orbital de la estrella visible y el tamaño de la misma. La velocidad orbital la proporciona el estudio de su espectro de luz: cuanto más rápidamente se mueva la estrella, mayor será la variación del color. Su radio se puede deducir conociendo su temperatura y su luminosidad, ya que podemos calcular cuánto brilla una determinada área de material a una temperatura dada. Sabiendo lo que brilla toda la estrella podremos calcular entonces su superficie y a partir de ahí su radio. La temperatura se deduce directamente de su color y su luminosidad se puede obtener midiendo lo brillante que es la estrella y teniendo en cuenta a que distancia de nosotros se encuentra.  Evidentemente, cuanto más lejos esté más débil parecerá. Se puede medir la distancia por estimación de la cantidad de polvo interestelar que se interpone entre la Tierra y Cignus X-1. Esto, a su vez, se calcula a partir del grado enrojecimiento de la luz de la estrella debido a la absorción por el polvo, comparándolo con el color calculado para esta temperatura y tipo de estrella. El resultado dio al compañero oscuro de Cignus X-1 entre 8 y 18 masas solares, lo cual lo sitúa por encima de la las estrellas de neutrones y perfectamente dentro de la familia de los agujeros negros.

 

   Esta compleja cadena de razonamientos surge de unas deducciones lógicas basadas en teorías e hipótesis que, aunque pueden no estar demostradas, no se expresan alegremente sino que se sustentan en sólidos fundamentos matemáticos, que deben ajustarse a las pruebas observacionales y a las leyes físicas conocidas. Frecuentemente, para explicar una teoría confluyen varias disciplinas (física, química, geología, biología, matemáticas…) que no deben contradecirse entre sí. Diferentes equipos de científicos pueden repetir los experimentos y contrastar los resultados. Además se usan diversos instrumentos como telescopios, satélites, espectrómetros, ordenadores, interferómetros,  etc. el funcionamiento de todos los cuales también están basados en leyes y principios físicos con una justificación matemática y experimental que han sido repetidamente verificados y contrastados. Vemos pues una notable diferencia en la metodología usada para afirmar que existe un agujero negro a la usada para afirmar que existe, por ejemplo, un espíritu.

     Las religiones tienen una consideración diferente, pues muchas de ellas se basan en creencias y dogmas de fe. Y fe es creer en algo sin pruebas o, incluso, con pruebas en contra. Cualquier razonamiento lógico es vano frente a eso.

«CIENCIA» ES FEMENINO

«CIENCIA» ES FEMENINO

HIPATIA (siglos IV-V d.C.)

-La primera matemática de la Historia-

 

      Nació y vivió en Alejandría entre la segunda mitad del siglo IV y principios del siglo V d.C. (no hay certeza sobre la fecha exacta). Hipatia es la primera mujer matemática de la que se tiene conocimiento razonablemente seguro y detallado.

     El pintor renacentista Rafael la consideró merecedora de aparecer en su célebre cuadro La escuela de Atenas. En nuestro país es más conocida a nivel popular, que tal vez en otros sitios, gracias a la película Ágora (2009) de Alejandro Amenábar, que trata sobre su personaje y que tuvo un notable éxito.

     Su padre fue Teón de Alejandría, que ejercía como matemático y astrónomo en la biblioteca del Serapeo, sucesora de la famosa biblioteca de dicha ciudad y que estaba dedicada al dios greco-egipcio Serapis. Entre otras, la labor de Teón consistía en recopilar, ordenar y comentar las obras más relevantes escritas hasta entonces sobre matemáticas y astronomía, particularmente el libro Almagesto de Ptlomeo. Transmitió a su hija su pasión y conocimientos sobre estas materias, e Hipatia colaboró con su padre en varias de sus obras. Hipatia también llevó a cabo un análisis matemático de los movimientos de los astros descritos por Ptolomeo, escribió sobre geometría, álgebra y astronomía, mejoró el diseño de los primitivos astrolabios -instrumentos para determinar las posiciones de las estrellas sobre la bóveda celeste- e inventó un densímetro. Aunque la opinión predominante, tanto a nivel filosófico como teológico, era que la Tierra era el centro del Universo, ella seguía el modelo heliocéntrico de Aristarco con el Sol en el centro.

     Podemos situar a Hipatia dentro de la escuela neoplatónica cuyas ideas parten de los pitagóricos, una sociedad científica que basaba su sistema de pensamiento en la contemplación y el descubrimiento del cosmos, palabra que crearon ellos mismos, como un universo ordenado por unas leyes cognoscibles. También apoyaban la igualdad de género y, en consecuencia, admitían bajo las mismas condiciones a hombres y mujeres. Hipatia se convirtió en líder de los neoplatónicos alejandrinos, y su casa se transformó en un centro de instrucción al que acudían estudiantes de todas partes del mundo romano, atraídos por su fama y donde, con el espíritu integrador pitagórico, no separaba los estudiantes según su religión.

     Procuraba no implicarse en las disputas religiosas entre paganos y cristianos. Pero si se implicó partido fue en los asuntos municipales y de gestión de la ciudad. Era conocida y respetada por sus valores éticos y su sabiduría y los representantes políticos, paganos y cristianos, recurrían con frecuencia a sus consejos. Fue maestra y amiga de Orestes, el prefecto de Alejandría, que era cristiano y defendía la convivencia pacífica entre todas las culturas y religiones.

     El año 412 Cirilo fue elegido como obispo de Alejandría y, a partir de entonces, la situación cambió radicalmente. Cirilo tenía un talante fanático e intolerante que atacaba a todos los colectivos religiosos que no aceptasen el cristianismo impuesto con el pretexto de purificar la fe. Alejandría se sumió en un clima de extrema violencia. Los asesinatos entre grupos de creencias diferentes se sucedían continuamente. Para Cirilo, la influencia de Hipatia entre los altos cargos de la política imperial y municipal, representaba una amenaza. Por ello, decidió iniciar una campaña de difamación contra ella presentándola como una bruja peligrosa entregada a la magia negra que había embrujado a Orestes.

     En este enrarecido ambiente de conflictos político-religiosos, fue asesinada por una turba de fanáticos cristianos que se abalanzó sobre la filósofa mientras regresaba en carruaje a su casa, la golpearon y la arrastraron por toda la ciudad hasta llegar al Cesáreo, templo edificado por Augusto tras su victoria sobre Marco Antonio y convertido en catedral de Alejandría. Allí, tras desnudarla, la golpearon con piedras y tejas hasta descuartizarla y sus restos fueron paseados en triunfo por la ciudad hasta llegar a un lugar denominado el Cinareo (por su nombre, se supone que es un crematorio), donde los incineraron. Los asesinos y sus instigadores nunca fueron castigados.

Muerte de Hipatia

 

 

 

 

MARIA GAETANA AGNESI (1718-1799)

-Autora del mejor libro de matemáticas de su época-

  

        María Gaetana Agnesi fue una matemática italiana cuya obra más importante, Instituciones Analíticas, fue traducida a varios idiomas y utilizada para aprender matemáticas durante más de cincuenta años en muchos países de Europa. En ella trataba con sencillez y claridad temas, tan novedosos entonces, como el cálculo diferencial e integral. Al final de su vida era famosa en toda Europa como una de las mujeres de ciencia más capaces del siglo XVIII.

         Nacida en Milán en 1718, fue la primera de los 21 hijos que su padre, Pietro Agnesi, tuvo con tres esposas (aunque la mayoría no sobrevivieron más allá de la infancia). No está clara la ocupación de Pietro, algunas fuentes dicen que era un rico comerciante del negocio de la seda, y otras que fue profesor en la universidad de Bolonia. En cualquier caso, María Gaetana tuvo una esmerada formación. En Milán, al contrario que en la mayoría de Europa, sí se aceptaba que las mujeres tuvieran educación. Además, María resultó ser una niña prodigio que a los 13 años dominaba perfectamente, además del italiano, el francés, alemán, español, latín, griego y hebreo.

         Su padre gustaba de organizar en su casa reuniones sociales con los intelectuales de la zona para debatir sobre cuestiones filosóficas, científicas y matemáticas. Según parece, a la edad de nueve años María estuvo, durante una hora, ante esta asamblea culta hablando en latín sobre el derecho de la mujer a estudiar ciencias y sobre cómo las artes liberales no eran contrarias al sexo femenino. A los 20 años discurría en perfecto latín sobre el origen de las fuentes y los ríos, las mareas, las teorías de Ptolomeo y Newton o la función del hígado. Se conocen de ella diversas anécdotas como ésta: parece ser que María era sonámbula, y en ocasiones, después de trabajar intensamente, exhausta, se iba a dormir dejando un problema sin resolver sobre el escritorio. A la mañana siguiente, al despertar, veía que lo había resuelto mientras dormía. Había escrito la solución completa y había vuelto a la cama.

         Sin embargo, el carácter de María era retraído y tímido, con vocación religiosa que la hacía desear entrar en un convento, como ya había hecho una hermana suya. Así, realmente, aborrecía las exhibicionistas reuniones sociales que organizaba su padre. En 1738 Pietro Agnesi publicó un profundo libro de su hija de 20 años, Propositiones Philosóphicae, en el que se compendiaba la defensa de 191 tesis filosóficas debatidas o propuestas en esos encuentros sociales que María Gaetana detestaba. Un visitante pone en su boca la siguiente disculpa: «Lamento haberlo sometido a esto; sé que por cada oyente interesado tengo veinte mortalmente aburridos».

         La muerte de su madre durante el parto de su octavo hijo da lugar a un pacto entre María Gaetana y su padre. A cambio de no tomar los hábitos, seguir viviendo en casa, y cuidar de él y de sus hermanos, pide a su padre «poder ir a misa siempre que quiera, vestir sencilla y humildemente, y no tener que asistir a bailes y fiestas». Así pues, a partir de los 20 años, María Gaetana Agnesi abandona toda actividad social y se concentra en el estudio de las matemáticas y la religión.

         En 1748 se publica en Milán la obra más famosa de Agnesi, Instituzioni analítiche ad uso della gioventú italiana -cuya edición ha de costear y realizar ella misma-, donde se recogen exposiciones sobre lógica, mecánica, hidráulica, elasticidad, química, botánica, zoología, mineralogía, astronomía, filosofía, la mecánica celeste y la teoría newtoniana sobre la gravitación universal. La obra adquiere rápidamente notoriedad entre los matemáticos de la época. Las Instituzioni exponen con claridad los conceptos a través del uso acertado de múltiples ejemplos, y tienen la virtud de armonizar los trabajos, hasta entonces dispersos, de muchos matemáticos, homogeneizándolos en un conjunto único y coherente. Se ha destacado del libro el tratamiento de los máximos y mínimos, y se le atribuye haber sido el primer libro de texto que trató conjuntamente el cálculo diferencial y el cálculo integral, explicitando además su naturaleza de problemas inversos, idea que en 1748 no era tan obvia. Se ha elogiado repetidamente la claridad, el orden, la precisión, y el uso afortunado de los ejemplos. Fue traducida a varios idiomas, y utilizada como manual en las universidades de distintos países, siendo, incluso cincuenta años más tarde, el texto matemático más completo. Un informe de una comisión de la Academia de Ciencias de París comentaba:

“Esta obra se caracteriza por una cuidadosa organización, su claridad y su precisión. No existe ningún libro, en ninguna otra lengua, que permita al lector penetrar tan profundamente, o tan rápidamente en los conceptos fundamentales del Análisis. Consideramos este Tratado como la obra más completa y la mejor escrita en su género”.

La curva de Agnesi se construye de la forma siguiente: se toma una circunferencia, un punto cualquiera O sobre ella y T el punto diametralmente opuesto a O. Para cualquier otro punto A de la circunferencia, la prolongación de la línea secante OA corta a la perpendicular a OT que pasa por T en B. La línea paralela a OT que pasa por B, y la línea perpendicular a OT que pasa por A se cortan en P. La curva de Agnesi es el conjutno de puntos P obtenidos al hacer variar el punto A.

         Entre los afortunados ejemplos del libro hay uno que la ha hecho famosa en mayor medida que todos sus otros méritos: La Curva de Agnesi. Se trata de una curva que Fermat había estudiado en 1630, y para la que Guido Grandi, en 1703, había dado un método de construcción. Grandi llamó, en 1718, a la curva versoria en latín, y versiera en italiano. Es un término naval, que identifica la cuerda o cabo que hace girar la vela. María Gaetana Agnesi escribió a su vez la versiera, añadiendo el artículo femenino. John Colson, profesor de Cambridge, encontró este trabajo tan excelente que, a una edad avanzada, decidió aprender italiano con el único fin de traducir ese libro. Sin embargo, en su deficiente conocimiento del italiano, llamó a la curva witch (bruja), debido a que confundió versiera con avversiera, que en italiano significa “diablesa”. Posteriores traducciones y ediciones han mantenido el término. Y así ha quedado inmortalizada en los libros de historia de la matemática: La “bruja” de Agnesi.  Recientemente se ha establecido que esta curva es una aproximación de la distribución del espectro de la energía de los rayos X y de los rayos ópticos, así como de la potencia disipada en los circuitos de alta frecuencia de resonancia.

         A muerte de su padre, cuando ella tenía 34 años, renunció a las matemáticas, y consagró sus esfuerzos a la teología, a socorrer a pobres e indigentes, y a educar a sus hermanos y hermanas. Dedicó por completo el resto de su vida a hacer obras de caridad viviendo y muriendo en total pobreza.

 

 

 

        

ADA BYRON (1815-1852)

-Autora del primer algoritmo informático-

  

Ada Byron

         Ada Byron era hija de Anne Isabella Milbanke, matemática y activista política y social, y del poeta Lord Byron. Conocida también como Ada Lovelace, fue una matemática británica autora de lo que se reconoce como el primer algoritmo utilizable en una máquina, por lo que se la considera la primera programadora de ordenadores.

         Su padre, Lord Byron, es considerado uno de los mayores poetas en lengua inglesa. Dotado de gran talento y personalidad, así como de atractivo físico, encarna también el ideal del héroe romántico. Todo lo cual no obsta que su vida fuese una sucesión de extravagancias, despilfarros y aventuras licenciosas. En el año de 1816 estuvo viviendo en Suiza algún tiempo junto a Percy Shelley, Mary Shelley y su médico personal John William Polidori (Byron fue muy propenso a las enfermedades y fue otra de las causas de sus depresiones). En una tormentosa noche de verano de 1816 se reunieron los cuatro en una villa alquilada por Byron, y decidieron escribir relatos de terror dignos de aquella noche lúgubre. Inspirados ambos en la personalidad de Byron, Mary Shelley escribió Frankenstein y Polidori su relato El Vampiro. Viajó por España, Italia y Grecia siguiendo los ideales románticos típicos de la época y ampliando su ya extensa lista de amantes de ambos sexos. Murió cuando Ada tenía 8 años, en Grecia a donde se había trasladado para apoyar a los griegos en su lucha para independizarse del Imperio turco.

         El matrimonio de los padres de Ada fue tormentoso ya desde el principio. Harta de las infidelidades de su marido, Anne lo abandonó llevándose a la niña apenas un mes después de su nacimiento. Pocos meses más tarde Byron abandonó Inglaterra huyendo de sus acreedores y del escándalo que se cernía sobre él por los rumores de incesto, para no regresar más. La madre de Ada quería educar a su hija alejada de las tendencias literarias y las “fantasías románticas” que hubiera podido heredar de su padre, y para contrarrestarlas puso mucho empeño en que su hija aprendiera matemáticas, disciplina que ella misma practicaba. En este contexto, Ada conoce a la matemática y científica escocesa Mary Somerville, que durante un tiempo fue su tutora.

         Al cumplir 18 años empezó a asistir a fiestas de sociedad. En una de ellas conoció a Charles Babbage quien estaba interesado en construir una máquina con la que se pudieran hacer cálculos automáticamente, eliminando errores debidos a la fatiga o aburrimiento que sufrían las personas. Basado en los trabajos precursores de Pascal y Leibniz, había pensado en una máquina que fuese programable para hacer cualquier tipo de cálculo. En aquellos momentos era muy famoso un telar programable, invención del tejedor francés Joseph Marie Jacquard, el cual podía tejer automáticamente telas con diferentes patrones de dibujos introduciendo en la máquina unas tarjetas perforadas que le daban las instrucciones. Ada estaba fascinada con el telar e inmediatamente se interesó en los proyectos de Babbage y entre ambos concibieron la idea de aplicar el método de las tarjetas perforadas a una máquina calculadora que “tejiera números”. Al año siguiente Ada, que se había dado cuenta que su pasión eran las matemáticas, hizo junto a su madre un viaje a la zona industrial del norte de Inglaterra, donde pudieron ver los telares de Jacquard en funcionamiento.

         Pasaron unos cuantos años, en los cuales Ada se casó con el conde de Lovelace y tuvo tres hijos, pero en los que no disminuyó su interés por las matemáticas ni su amistad con Babbage, que la visitaba a menudo. En 1843, Babbage había dado en Turín una conferencia sobre su máquina a la que asistió un científico italiano que quedó impresionado y publicó un artículo en francés. Babbage le pidió a Ada si podía traducir dicho artículo al inglés, cosa que no sólo hizo, si no que añadió múltiples notas y comentarios sobre el funcionamiento de la máquina. Estas notas y explicaciones acabarían triplicando el tamaño del texto original.

Máquina de Babbage

         Babbage y Ada concebían la máquina analítica de manera muy distinta. Al primero no le interesaban demasiado sus consecuencias prácticas. A Ada, por el contrario, le obsesionaban las aplicaciones del invento. Ella fue la primera en intuir lo que el invento de Babbage podía permitir. Entendió que la tecnología utilizada en el telar de Jacquard y en la máquina analítica abría camino a una nueva ciencia, la de la computación de la información. La idea visionaria en que Ada estaba pensando, era no sólo trabajar con números para obtener resultados aritméticos, si no cualquier proceso que implicara tratar datos que se pudieran digitalizar, por ejemplo la música representando las notas musicales por números.

         Las notas que Ada añadió en la traducción, se etiquetaron de la A a la G. Destaca la nota G dedicada a los números de Bernoulli, donde describe con detalle las operaciones mediante las cuales las tarjetas perforadas «tejerían» una secuencia de números en la máquina analítica. La idea de reutilizar las tarjetas encargadas de cierto procedimiento, cada vez que fuera necesario, dentro de un mismo programa, era tan avanzada que en los cien años posteriores no se escribió nada mejor referente a esta materia. Aquello era el invento de las subrutinas, pieza clave en la programación de los modernos ordenadores.

Nota «G»

        Este código está considerado como el primer algoritmo específicamente diseñado para ser ejecutado por un ordenador, aunque nunca fue probado ya que la máquina nunca llegó a construirse. Pero podemos concluir que la nota G es el algoritmo de Ada, así que a ella se la reconoce como la primera programadora de la historia, la primera persona en describir un lenguaje de programación de carácter general. Como reconocimiento se dio su nombre a un lenguaje de programación, el lenguaje ADA, diseñado por y para el Departamento de Defensa de los Estados Unidos de América.

         Murió de cáncer a los 36 años, como su padre, el famoso Lord Byron, al que nunca llegó a conocer, pero del que heredó la poderosa imaginación. Ada pidió ser enterrada junto a él, que pensó siempre en ella y que le dedicó las últimas palabras antes de morir.

 

 

        

        

 HENRIETTA LEAVITT (1868-1921)

-La mujer que expandió el Universo

 


Henrietta Leavitt fue una astrónoma estadounidense cuyo trabajo permitió medir las distancias a cuerpos celestes cuya lejanía no permitía en esa época calcular como de lejos estaban, y como consecuencia de esto posibilitó que Edwin Hubble, Albert Einstein y otros científicos hicieran descubrimientos que modificaron nuestra visión del Universo que resultó ser inmensamente mayor de lo que hasta entonces se creía.

         Leavitt trabajaba en el observatorio de Harvard junto a un centenar de otras mujeres en un grupo que se conocía como “las computadoras de Harvard”. Una de las facetas de los trabajos en astronomía es el de realizar ingentes cálculos matemáticos y -cuando aún no existían los ordenadores- inevitablemente debían ser personas quienes los efectuasen. En una época en que las mujeres no tenían acceso a los telescopios y demás instrumentos de observación, los responsables del observatorio de Harvard pensaron que bien podrían encargarse de esa tarea. Así, con la finalidad de crear un catálogo o mapa de todo el Universo, contrataron a las “computadoras de Harvard” para que realizaran ese trabajo monótono, repetitivo y mal pagado pero imprescindible. Básicamente el trabajo consistía en medir el brillo de miles y miles de estrellas en miles y miles de placas fotográficas, no sólo de Harvard, sino de también de otros observatorios del mundo que no disponían de ningún equipo de “computadoras”. Henrietta Leavitt era una de ellas.

Las «calculadoras» de Harvard

         Es evidente cuando vemos estrellas, ya sea a simple vista o en una fotografía, que no todas tienen la misma luminosidad, algunas son más brillantes y otras menos. Pero hay que tener presente que estamos hablando de la magnitud aparente de cada estrella; sin conocer a que distancia se encuentra no podemos saber si en realidad es más o menos brillante, osea su magnitud absoluta. Una estrella de poca luminosidad nos puede parecer más brillante que otra mayor, por el simple motivo de que esté más próxima a nosotros. Para comprender la importancia del descubrimiento de Henrietta Leavitt, vamos primero a explicar brevemente en que consisten las estrellas variables y, particularmente, un grupo de ellas conocidas como “cefeidas”:

         Algunas estrellas, conocidas como estrellas variables, muestran cambios de magnitud en diversos intervalos de tiempo. Así, Algol en la constelación de Perseo, un ejemplo típico de binaria eclipsante, presenta unos espectaculares cambios pasando cada dos días y medio de la magnitud 2’12 a 3’19. Esto le valió que los árabes le pusieran ese nombre que significa “estrella del diablo”.

         Otra estrella variable, muy brillante, es la llamada Delta de Cefeo, en la constelación de Cefeo. Un detenido estudio reveló que su brillo variaba de forma cíclica: se iniciaba con una fase de menor brillo, el cual se duplicaba rápidamente, para atenuarse luego de nuevo muy lentamente. Esto ocurría una y otra vez con gran regularidad. Los astrónomos descubrieron después otra serie de estrellas en las que se observaba el mismo brillo cíclico, por lo cual, en honor de Delta de Cefeo, fueron bautizadas como “cefeidas”. Los períodos de las cefeidas oscilan entre menos de un día y unos dos meses. El período de Delta de Cefeo es de 5’3 días, mientras que el de la cefeida más próxima a nosotros, nada menos que la Estrella Polar, es de 4 días; no lo hace con la suficiente intensidad como para que pueda apreciarse a simple vista.

Nubes de Magallanes

         En 1912 Henrietta Leavitt, estudiando la más pequeña de las Nubes de Magallanes detectó un total de 25 cefeidas. Registró el período de variación de cada una y, con gran sorpresa, comprobó que cuanto mayor era el período, más brillante era la estrella. Esto no se observa en las cefeidas más próximas a nosotros ¿Por qué ocurría en la Pequeña Nube de Magallanes? En nuestras cercanías conocemos sólo las magnitudes aparentes de las cefeidas, pero no sabemos las distancias a que se hallan ni su brillo absoluto. Pero en la Pequeña Nube de Magallanes ocurre como si todas las estrellas estuvieran aproximadamente a la misma distancia de nosotros, debido a que la propia nebulosa se halla muy distante. Para entenderlo es como si afirmamos que todos los habitantes de Buenos Aires están a la misma distancia de nosotros. Sabemos que esto no es rigurosamente cierto, pues unos estarán unos pocos kilómetros más cerca o lejos que otros; pero dada la gran lejanía a la que está Buenos Aires, estas pequeñas diferencias son irrelevantes y podemos considerar que todos sus habitantes están igual de lejos de nosotros.

         Así se puede considerar como verdadera la relación apreciada, o sea, que el período de las cefeidas aumenta progresivamente al hacerlo la magnitud absoluta. De esta manera se logró establecer una “curva de período-luminosidad”, gráfica que mostraba el período que debía tener una cefeida en cualquier magnitud absoluta y, a la inversa, qué magnitud absoluta debía tener una cefeida de un período dado. Si tenemos dos cefeidas con idénticos períodos, podemos suponer que ambas tienen la misma magnitud absoluta.  Si la cefeida A se muestra 4 veces más brillante que la B, esto significa que ésta última se halla dos veces más lejos de nosotros. Si, por medio de otros métodos como la paralaje, pudiéramos determinar la distancia real de tan sólo una de las cefeidas, podrían calcularse las distancias de todas las restantes. Pero la paralaje sólo servía para medir la distancia a estrellas cercanas a nosotros, que estén como mucho a 100 años-luz.

         Por desgracia incluso la cefeida más próxima, la Estrella Polar, dista de nosotros cientos de años luz, es decir, se encuentra a una distancia demasiado grande como para ser medida por paralaje. Pero los astrónomos usan también métodos menos directos, por ejemplo, el movimiento propio: por término medio, cuanto más lejos de nosotros está una estrella, tanto menor es su movimiento propio. Se recurrió a una serie de técnicas para determinar los movimientos propios de grupos de estrellas y se aplicaron métodos estadísticos. Los valores concordaban lo suficiente como para que los astrónomos lo validaran como patrón de medida.

         Así gracias al descubrimiento de Henrietta Leavitt de la curva de periodo-luminosidad existía, por fin, una forma de medir de forma bastante precisa la distancia entre estrellas muy lejanas. De hecho, en 1918 se calculó el tamaño de la Vía Láctea empleando estos nuevos métodos. En esa época se creía que nuestra galaxia era la única existente. Fue Edwin Hubble quien combinó las ideas del trabajo de Leavitt con descubrimientos hechos por otros astrónomos, para asombrar al mundo en 1923 al revelar que una mancha borrosa observable en la constelación de Andrómeda era una enorme galaxia compuesta por millones de estrellas y con un diámetro de 150.000 años luz, y el objeto más lejano observable a simple vista (está a 2,5 millones de años luz de la Tierra). Un año después Hubble pudo afirmar que el universo estaba formado no solo por nuestra galaxia, la Vía Láctea, sino por muchas otras galaxias lejanas. A esto siguieron otros trabajos que indicaban que el universo estaba en expansión y también una primera aproximación a su tamaño. Todo ello, gracias a los patrones formulados por Leavitt.

         El trabajo de Henrietta fue quizá el más importante de las “computadoras de Harvard”, pero no fue el único legado de este grupo de mujeres poco valoradas y mal remuneradas. De hecho, su hallazgo no habría sido posible sin el trabajo previo de su colega Annie Jump Cannon, quien desarrolló un sistema para clasificar estrellas. Cannon se acabaría convirtiendo en la primera mujer que pudo utilizar el telescopio del observatorio. En años posteriores, otra integrante del grupo, Cecilia Payne-Gaposchkin terminaría convirtiéndose en la primera persona en obtener un doctorado en Astronomía en Harvard. Su tesis doctoral sigue considerándose revolucionaria a día de hoy: utilizando como base placas espectrales del universo, Payne-Gaposchkin determinó que las estrellas están compuestas de hidrógeno y helio (algo que fue disputado e incluso ridiculizado en su época y luego se terminó comprobando).

 

 

 

 

HEDY LAMARR (1914-2000)

-Estrella de Hollywood precursora del wifi y BlueTooth-

 

      Hedwig Eva Maria Kiesler, conocida como Hedy Lamarr fue una actriz de cine e inventora austriaca. Fue inventora de la primera versión de la “técnica de transmisión por el espectro ensanchado” que permitiría las comunicaciones inalámbricas de larga distancia.

    De inteligencia superdotada, tocaba el piano a la perfección y a los 16 años inició estudios de ingeniería que abandonó para cumplir el sueño de ser actriz. Pronto sería mundialmente famosa por la secuencia de la película Éxtasis (1933), en la que aparece completamente desnuda y simuló un orgasmo. Por dicha escena se la conocería como la primera mujer en la historia del cine que apareció desnuda en una película comercial. Sus padres se horrorizaron, pero Fritz Mandl, magnate de la empresa armamentística, al visionar la película quedó embelesado de la belleza de la joven y solicitó permiso a sus padres para cortejarla. El matrimonio, avergonzado por el comportamiento de su hija, aceptó encantado más tarde, la petición de mano del empresario. La obligaron a casarse con Fritz condenándola a una temporada en el infierno.

Fotograma de la película Éxtasis

         Fritz Mandl era extremadamente celoso y trató de hacerse con todas las copias de Éxtasis. Sólo le permitía desnudarse o bañarse si él estaba presente y la obligaba a acompañarle a todos los actos sociales y cenas de negocios para no perderla de vista. Vivía rodeada de lujo en el famoso castillo de Salzburgo, pero era una esclava que no podía hacer nada sin la autorización de Mandl. Hastiada del vacío insoportable en el que se había convertido su vida, retomó la carrera de ingeniería. En las reuniones de trabajo de Mandl a las que se la forzó a asistir, aprovechó para aprender y recopilar información sobre las características de la última tecnología armamentística nazi. Su marido era proveedor de municiones, de aviones de combate y de sistemas de control de Adolf Hitler y de Benito Mussolini (de quienes era amigo personal).

          Finalmente decidió huir. Estando Mandl en un viaje de negocios, escapó por la ventana de los servicios de un restaurante disfrazada como su asistenta y huyó en automóvil hacia Paris. La fuga fue angustiosa, los guardaespaldas de su marido la persiguieron durante días, no tenía casi dinero ni más ropa que la puesta. Finalmente, logró llegar a Londres y embarcarse en el trasatlántico Normandie con destino a Estados Unidos. Allí coincidió con el productor de películas Louis B. Mayer que le ofreció trabajo antes de llegar a puerto y, para que no se la relacionase con la película Éxtasis le puso un nuevo nombre artístico: Hedy Lamarr.

       En Hollywood compartió cartel con Charles Boyer, Spencer Tracy, Robert Taylor y Clark Gable, entre otros actores, protagonizando una treintena de películas, pero no tuvo demasiado ojo al elegirlas. Sin ir más lejos, rechazó dos obras de arte como Luz de Gas y Casablanca; y se quedó a las puertas de interpretar a Escarlata en Lo que el viento se llevó. Aun así, su imagen deslumbrante la convirtió en la estrella emergente de los años 30. Su mayor éxito fue en Sansón y Dalila (1949), dirigida por Cecil B. DeMille.

         

 

      Enemiga del régimen nazi, Lamarr, que a través de su marido había conocido a Hitler y Mussolini, por lo que tenía mucha información acerca de algunos problemas en la transmisión de comunicaciones, ideó un sistema de guiado de torpedos por medio de radiofrecuencias que permitiría destruir los submarinos alemanes. La idea ya existía y nunca funcionaba porque se podía interferir en la frecuencia e inutilizar el dispositivo. Debido a la duración de los mensajes, el enemigo podía realizar un barrido de frecuencia en diferentes bandas y tener tiempo de localizar la emisión. Una vez hallada, era fácil determinar el lugar de origen sintonizando, a la misma longitud de onda, dos o más receptores con antenas direccionales, situándolos en diferentes emplazamientos y localizando la emisora por triangulación. Conseguido esto, podían generarse interferencias que impidiesen la recepción, o atacar directamente el transmisor según conviniese. Es obvio el riesgo que esto representaba para los operadores de las estaciones, especialmente si se trataba de espías situados en territorio enemigo.

         Pero a Lamarr se le ocurrió que la frecuencia se podía cambiar constantemente (como se hace al tocar un piano, que fue lo que la inspiró) y de esa forma se podía controlar un torpedo por radio sin que pudiera ser interferido. En colaboración con el pianista, y también ingeniero, George Antheil a quien conoció en una cena, la actriz patentó el sistema que actualmente se conoce como “espectro ensanchado por salto de frecuencias”. El sistema concebido por Hedy partía de una idea tan simple como eficaz. Se trataba de transmitir los mensajes u órdenes de mando fraccionándolos en pequeñas partes, cada una de las cuales se transmitiría secuencialmente cambiando de frecuencia cada vez, siguiendo un patrón pseudoaleatorio. De este modo, los tiempos de transmisión en cada frecuencia eran tan cortos y además estaban espaciados de forma tan irregular, que era prácticamente imposible recomponer el mensaje si no se conocía el código de cambio de canales. El receptor estaba sintonizado a las frecuencias elegidas para la emisión y tenía el mismo código de cambio, saltando de frecuencia sincrónicamente con el transmisor.

         Por su parte George Antheil en el año 1923 había estrenado en París una obra titulada Ballet Mecánique. Musicalmente la obra fue un fracaso, pero el caso es que Antheil había logrado sincronizar sin cables 16 pianolas que formaban parte de la orquesta mecánica, y esta precisión es justamente lo que Hedy estaba buscando. Sin embargo, se detectaron problemas en su mecanismo, que no era muy adecuado para usarse en un torpedo y la Marina declaró que el sistema era demasiado vulnerable, archivando así la idea, y haciendo que Lamarr abandonara el proyecto. Sin embargo, en pocos años los avances en electrónica permitieron hacer operativa la idea de forma que la primera aplicación conocida se produjo poco tiempo después, durante la crisis de los misiles de Cuba en 1962, en que la fuerza naval enviada por los Estados Unidos empleó la conmutación de frecuencias para el control remoto de boyas rastreadoras. Después de Cuba se adoptó la misma técnica en algunos dispositivos utilizados en la guerra del Vietnam y, más adelante, en el sistema norteamericano de defensa por satélite (Milstar). En la actualidad, muchos sistemas orientados a voz y datos, tanto civiles como militares emplean sistemas de espectro ensanchado, entre ellos todas las tecnologías inalámbricas de que disponemos en la actualidad. Tanto la telefonía de tercera generación como el Wifi o el BlueTooth, se basan en el cambio aleatorio de canal y cada vez se encuentran más aplicaciones en la transmisión de datos sin cable.

          La actriz no consiguió ingresar ni un solo centavo por la patente. Los honores y el reconocimiento tardaron en llegar. El hecho de que el apellido que figuraba en la patente fuese Markey -su marido en aquel momento y que solo usó un par de años- tampoco ayudó a que la recordasen. Su vida personal no fue afortunada. Sus seis fracasos matrimoniales junto al declive de su carrera cinematográfica la llevaron a un consumo masivo de pastillas y a una obsesión enfermiza por la cirugía estética. Se volvió cleptómana y protagonizó sonados escándalos al ser detenida en diversas ocasiones. Finalmente, se recluyó en su mansión de Miami para pasar los últimos años de su vida aislada de un mundo que la había marginado, que celebraba las nuevas aplicaciones de su invención sin siquiera nombrarla. Cuando llegaron al fin los reconocimientos como inventora, ya era demasiado tarde. Su amargura había crecido hasta el punto que cuando le comunicaron la concesión del Pioner Award se quedó imperturbable y comentó escuetamente “Ya era hora”.

Horror vacui

Horror vacui

La expresión horror vacui significa literalmente “miedo al vacío”. Se usa para manifestar la tesis filosófica que afirma que la naturaleza aborrece el vacío, por lo que éste no existe. Esta opinión fue respaldada por Aristóteles y otros filósofos de la Grecia clásica y se mantuvo durante la Edad Media con argumentos teológicos como que dado que Dios no puede actuar en la nada, como el vacío es igual a la nada y Dios es omnipresente, el vacío no podría existir.

La presencia del horror vacui es muy frecuente en el arte, por ejemplo en la decoración islámica y en el Barroco y Rococó, donde prácticamente no se deja ningún trozo de superficie sin ornamentar.

Decoración islámica
Arte Rococó

El aborrecimiento de la naturaleza por el vacío explicaba, por ejemplo, la absorción de un líquido con una pajita, dado que éste ascendía por la pajita precisamente para evitar que se produjera un vacío en la misma. El mismo Galileo era partidario de esta idea y la empleó para explicar el funcionamiento de las bombas hidráulicas y por qué éstas no podían conseguir que el agua ascendiera más de 10 metros. Su razonamiento era que 10 metros es la máxima altura que puede alcanzar la columna de agua antes de que su propio peso la fragmente, lo que produciría zonas vacías dentro del tubo de la bomba, cosa que no es posible por la resistencia de la naturaleza al vacío, y por tanto el agua no puede ascender más.

Sin embargo, dos años después de la muerte de Galileo un discípulo suyo, Evangelista Torricelli, llevó a cabo un sencillo experimento consistente en llenar de mercurio un tubo de, aproximadamente, un metro de largo y cerrado por un extremo e introducir el extremo abierto en la cubeta. El mercurio del tubo comenzó a descender al salir por el extremo abierto, pero cuando alcanzó una altura de unos 760 mm sobre el nivel de la cubeta dejó de salir y permaneció al mismo nivel.  Repitió el experimento con tubos de diferentes secciones y alturas y formas y obtuvo el mismo resultado. El experimento de Torricelli creó por primera vez el vacío en la parte superior del tubo y sirvió de fundamento para la construcción de barómetros. La explicación de Torricelli del fenómeno era que, tanto la columna de 760 mm de mercurio como la de 10 m de agua, eran sostenidas por el peso del aire que había sobre ellas hasta el límite superior de la atmósfera. En otras palabras: el aire pesa y ejerce presión.

El francés Blaise Pascal repitió el experimento del tubo de mercurio, pero en la cima de una montaña de casi 1.000 m de altura. En esa ocasión el mercurio descendió bastante más, lo que evidenció que la presión del aire disminuía a media que aumentaba la altitud.

En 1654 el alemán Otto von Guericke construyó dos grandes semiesferas huecas de cobre. Tras unirlas con juntas estancas y extraer el aire del interior, las dos semiesferas quedaron tan fuertemente unidas que no pudieron separarlas ni ocho caballos que tiraban de ellas. Al permitir que el aire volviera a entrar, las semiesferas pudieron separarse con total facilidad. Este experimento, conocido como “los hemisferios de Magdeburgo”, produjo una gran admiración y mostró la gran presión que en realidad ejerce el aire, aunque no lo notemos.

Por un puñado de angstroms

Por un puñado de angstroms

Efectivamente, un puñado de angstroms, y particularmente uno, es lo que marca la diferencia entre el diamante y el grafito que se usa como mina de los lápices. Pero empecemos por el principio.

Es comúnmente sabido que tanto el grafito como el diamante están formados por el mismo tipo de substancia: carbono cristalizado, y que las diferentes propiedades que presentan se deben a la diferente forma en que se produce dicha cristalización. Pero, en una primera impresión, no deja de ser sorprendente que una disposición diferente en la forma de ordenar los átomos, que por lo demás son intrínsecamente idénticos, produzcan unas diferencias de propiedades tan acusadas. Veámoslo con un poco más de detalle.

Los diamantes son conocidos desde la antigüedad. Eran piedras extremadamente duras que no podían ser rayadas por nada, ni por el metal más agudo. Estas piedras, por su parte, podían rayar cualquier cosa. Los griegos las llamaban adamantos, término derivado de una palabra que significa “indomable”.

En los siglos XVII y XVIII, en los inicios de la Química, los químicos sentían el deseo de conocer la composición de todas las cosas, diamantes incluidos. Estos, sin embargo, eran difíciles de analizar; primero porque no sólo no podían rayarse, sino que no los afectaba casi ningún producto químico y ni siquiera un calor considerable hacía mella en ellos. Y segundo, porque su elevado precio era un freno a la hora de someterlos a experimentos que eventualmente podían destruirlos. En 1771 el químico francés Pierre Joseph Macquer sometió uno a temperaturas cercanas a 1.000º C. En menos de una hora el diamante desapareció.

La cuestión era ¿se disipaba sin más el diamante de un modo misterioso, o ardía realmente como las demás cosas? En el segundo supuesto lógicamente necesitaría un suministro de aire. Se sometió a otro diamante a altas temperaturas, pero sin aire, y esta vez el diamante no desapareció. La conclusión fue que los diamantes arden en el aire como tantas cosas, con tal de calentarlos suficientemente. Por la misma época, Lavoisier demostró que la combustión ordinaria en el aire equivalía a la combinación con el oxígeno de la substancia quemada. La combustión la convertía en óxido, y si aparentaba desaparecer era porque el óxido era un vapor. Así pues, el óxido de diamante era un vapor.

Lavoisier, Macquer y otros quemaron un diamante bajo una campana de cristal. El diamante desapareció, pero el vapor de óxido de diamante estaba atrapado en la campana. Al estudiarlo resultó tener las mismas propiedades que el dióxido de carbono obtenido en la quema de carbón común. Era algo sorprendente dadas las dispares propiedades del grafito y el diamante, y durante algunos años se mantuvo la duda y la controversia. Pero finalmente fue evidente que, aunque pudiera ser sorprendente, el carbón, grafito y diamante estaban hechos de la misma cosa: carbono.

Calentando fuertemente un diamante, en ausencia de aire para que no ardiese, se vio que se transformaba efectivamente en grafito. Y, lógicamente, de inmediato surgió el interés en si era posible la transformación inversa: de grafito a diamante. Hubo varios intentos, pera tal cosa no pudo realizarse. Hoy sabemos que era completamente imposible conseguir tal cosa con la técnica disponible en el siglo XIX, pues se requiere no sólo muy altas temperaturas sino también muy altas presiones. Pero veamos algo más en detalle por qué esto es así.

El átomo de carbono tiene cuatro enlaces; esto es, puede unirse a cuatro átomos diferentes en cuatro direcciones distintas, como los vértices de un tetraedro. Normalmente al representar una cadena de átomos de carbono suele escribirse -C-C-C-C-C-, en línea recta. Pero sería más correcto escribirla en zigzag, puesto que los átomos se unen en un ángulo natural de 109’5º. Respetando este ángulo los átomos de carbono fácilmente se unen formando un hexágono denominado benceno.

-Anillo de benceno-

El anillo de benceno es muy estable, debido a que es simétrico y además es perfectamente plano, por razones que requieren recurrir a la mecánica cuántica para explicarlas. No entraremos en ellas aquí, pero aproximadamente podemos decir que, a consecuencia de la planicie y simetría, todos los átomos de un anillo forman una especie de enlace metálico en el que comparten los electrones. Dado que los electrones se comportan también como ondas, podemos imaginar al anillo bencénico rodeado por una nube de electrones compartidos de sus átomos, cosa que contribuye a su estabilidad.

Puede observarse en la imagen que cada átomo de carbono del benceno tiene un enlace libre al que se ha unido un átomo de hidrógeno. Pero en lugar de hidrógeno, los anillos de benceno pueden unirse entre sí compartiendo este enlace libre. Cuando muchos anillos hacen esto conforman un mosaico de hexágonos en el que cada vértice está ocupado por un átomo de carbono. Estos mosaicos planos se apilan unos sobre otros, y permanecen unidos no por enlaces químicos sino por otras fuerzas mucho más débiles. Cada átomo de carbono en un hexágono está a 1’4 angstroms de su vecino (un angstrom es la cienmillonésima de un centímetro). Sin embargo, cada mosaico está a 3’4 angstroms del inmediatamente superior o inferior.

-Mosaico hexagonal del grafito-

El grafito puro está formado por pilas de estos mosaicos. Cada capa mantiene su integridad, pero se deja exfoliar fácilmente de las capas contiguas. Por eso el grafito sirve para escribir y también como lubricante.

En el diamante los átomos de carbono tienen sus cuatro enlaces apuntando en cuatro direcciones, como en un tetraedro. En cada uno de estos enlaces se une otro átomo de carbono, con sus respectivos tres enlaces sobrantes, a cada uno de los cuales se une un nuevo átomo de carbono, y así sucesivamente. El resultado es una disposición cristalina perfectamente simétrica en tres dimensiones.

Eso significa que todos los átomos de carbono del diamante están sostenidos con fuerza pareja en cuatro direcciones diferentes. No hay átomo o grupo de átomos con propensión a separarse, a exfoliarse; antes al contrario, estos fuertes enlaces convierten al diamante en insólitamente duro y resistente. El diamante no sirve ni para escribir ni como lubricante.
Podemos hacernos la siguiente pregunta: si tenemos una gran cantidad de átomos de carbono y dejamos que se combinen ¿qué disposición adoptarán espontáneamente, la del grafito o la del diamante? Pues depende de las condiciones.

El anillo de benceno es tan estable que los átomos de carbono tenderán a formarlos. Mientras que los átomos de carbono en el anillo de benceno, como dijimos, se encuentran separados por 1’4 angstroms, los del diamante distan 1’5 angstroms; así pues, en la mayor parte de las situaciones se formará grafito. Sin embargo, el diamante tiene una densidad de 3’5 gramos por cm3, mientras que la del grafito sólo es de 2 gramos por cm3, debido a la «gran separación» de 3’4 angstroms entre mosaicos. En consecuencia, si los átomos de carbono son sometidos a una gran presión, la tendencia a agruparse en una forma que ocupe menos espacio será predominante y se formará diamante. Estas condiciones de elevadas presiones y también temperaturas, son las que se dan en las entrañas de la Tierra, que es donde se forman los diamantes.

Pero los diamantes también los encontramos en la superficie terrestre. Entonces ¿por qué los diamantes no se convierten espontáneamente en grafito tan pronto como disminuyó la presión? La respuesta es que esa sería su tendencia natural, pero los enlaces en la red diamantina son tan fuertes que la energía necesaria para romperlos es enorme. Si calentamos un diamante a unos 2.000º C (en ausencia de oxígeno, para evitar la combustión), los átomos quedan libres y formarán grafito. Para hacer lo inverso -convertir el grafito en diamante- no sólo es preciso utilizar temperaturas muy altas para desvincular los átomos, sino también presiones muy altas para convencerles de que deben adoptar la configuración más densa del diamante.

En 1955, científicos de la General Electric consiguieron formar los primeros diamantes sintéticos usando temperaturas de 2.500ºC y presiones superiores a 700 toneladas por cm2. Pero el procedimiento no es rentable, puesto que es más costoso el procedimiento que los diamantes naturales.

 

Extractado del ensayo “Los gemelos inverosímiles”. – La tragedia de la Luna (Isaac Asimov)

Que son las mareas

Que son las mareas

Supongamos que estamos dentro de un ascensor en el piso superior de un hipotético rascacielos muy, muy alto. Si el ascensor se suelta y cae libremente, nosotros y todo lo que esté dentro de la caja del ascensor descenderemos con el mismo movimiento, estaremos cayendo cada vez más rápidos con la aceleración debida a la gravedad de la Tierra. Sin embargo, si no tenemos ninguna referencia externa al propio ascensor, no notaremos esta aceleración. Lo que nos parecerá es que estamos ingrávidos, flotando dentro de la caja del ascensor, y cualquier objeto que esté también suspendido permanecerá suspendido a nuestro lado.

Este fenómeno conocido como “principio de equivalencia”, fue anunciado por Einstein quien afirmó que gravedad y aceleración son equivalentes. De igual forma que no podemos distinguir entre caída libre e ingravidez; si nuestro ascensor estuviese en medio del espacio interestelar y estuviese acelerado con la misma intensidad de la gravedad terrestre, en ausencia de otras referencias externas, no sabríamos distinguir dicha aceleración de si estuviésemos quietos sobre la superficie de la Tierra, sometidos solamente a su gravedad.

Los astronautas de una nave espacial están ingrávidos precisamente porque están en caída libre. En otras palabras: en todo momento están cayendo hacía la Tierra. Esta idea suele causar confusión porque la nave, evidentemente, no acaba cayendo al suelo. El motivo es que si bien la Tierra tira de la nave hacia abajo, ésta también tiene un movimiento orbital que impulsa la nave de lado. De esta forma, en cada instante, la nave cae pero al mismo tiempo se ha desplazado cierta distancia alrededor de la Tierra, y la curvatura de ésta hace que la nave no esté más cerca de la superficie que antes y se mantenga a la misma altura. Así la nave podría girar alrededor de la Tierra perennemente si nada la frena, como podría ser el rozamiento con las capas externas de la atmósfera. Del mismo modo la Tierra y la Luna caen alrededor de su común centro de gravedad. Y de la misma forma la Tierra está cayendo continuamente hacia el Sol. Así la gravedad del Sol en la superficie de la Tierra es el 0’06% de la gravedad terrestre, pero no lo notamos, no nos sentimos más ligeros cuando el Sol está sobre nuestra cabeza.

Aunque no existen efectos locales debidos a la gravedad cuando el observador cae libremente, puede haber efectos no locales. Volvamos al ejemplo del ascensor que cae. Supongamos que se sueltan dos cuerpos pequeños dentro del ascensor separados cierta distancia. Cada uno cae directamente hacia el suelo. Sin embargo, la Tierra no es plana; las trayectorias verticales de las partículas no son exactamente paralelas sino que convergen lentamente y apuntan al centro de la Tierra. Un observador que caiga con el ascensor observará un movimiento muy ligero de un cuerpo hacia el otro a medida que ambos se precipiten hacia abajo. En un ascensor real, donde las partículas estén separadas sólo un metro, la convergencia valdrá unos minúsculos 0’016 mm por cada 100 metros verticales de caída. Los objetos también experimentan una atracción gravitatoria entre ellos, pero estas fuerzas son despreciables y no es necesario tenerlas en cuenta. Es importante comprender que estos movimientos relativos entre los objetos en caída libre no se deben a una gravedad mutua sino a su respuesta a la gravedad exterior. La fuerza gravitatoria directa en sí es inobservable, pero los efectos secundarios generalmente mucho más pequeños causados por su variación de un punto a otro, sí pueden ser observables.

Cuanto mayor sea la región de observación, mayores pueden resultar estas diferencias. El lado de la Tierra que en un momento dado mira a la Luna está 12.000 km más cerca de ella que el lado opuesto, y a causa de ello la gravedad de la Luna varia en más del 6%. Esto hace que los océanos de diferentes regiones de la superficie de la Tierra “caigan” con diferentes velocidades hacia la Luna, y en consecuencia se produzcan las mareas. Las fuerzas diferenciales de la gravedad se llaman por este motivo fuerzas de marea.

Aquí podemos apreciar la sorprendente diferencia entre gravedad directa y gravedad de marea, observando que si bien la gravedad del Sol en la superficie terrestre es unas 180 veces más intensa que la de la Luna, las mareas solares son más pequeñas que las lunares. Esto se debe a que la variación de la gravedad solar de un lado a otro de la Tierra es sólo del 0’017%. El Sol está mucho más lejos que la Luna, y el diámetro adicional de la Tierra apenas aumenta la intensidad de la gravedad solar.

En la imagen vemos que, si bien la gravedad de la Luna es mínima en el punto B, el océano en este punto está levantado. Esto se debe a que la Tierra en sí es casi rígida y por ello no se deforma. La superficie terrestre en B cae a la misma velocidad que en el centro de gravedad de la Tierra, y éste está algo más cerca de la Luna que B. Por lo tanto, la Tierra en B cae algo más deprisa que el océano en B, que no está unido rígidamente a la Tierra. A consecuencia de esto el océano se “retrasa” y aparece un abultamiento. Si la misma Tierra fuera líquida, se deformaría también bajo la acción de las fuerzas de marea, y no notaríamos localmente las mareas oceánicas. Pero aunque la Tierra es casi rígida, las mareas también producen tensiones en su interior. Sin embargo este efecto es prácticamente imperceptible en el caso de nuestro planeta, pero por ejemplo, en el caso de Io –satélite de Júpiter- las fuerzas de marea que le ocasiona la proximidad del inmenso Júpiter, ocasionan grandes fricciones en el interior de Io que hacen que se caliente y se produzcan erupciones volcánicas que convierten a Io en el astro más vulcanológicamente activo del Sistema Solar.

¡Hay animalejos en el agua de lluvia!

¡Hay animalejos en el agua de lluvia!

Esto es lo que exclamó un sorprendido Anton van Leeuwenhoek llamando a gritos a su hija María para que fuera a observar tan extraña cosa. Y con este descubrimiento fue la primera persona en contemplar un mundo ignorado de seres microscópicos que desde el principio de los tiempos habían nacido, vivido y muerto ocultos y desconocidos para los hombres, por lo que está considerado el padre de la microbiología.

Leeuwenhoek nació en Holanda el año 1632 en el seno de una familia de fabricantes de cestos y cerveza. Había oído hablar de las lupas con las cuales, si se tallaba una lente a partir de un trozo de cristal transparente, podían verse los objetos más grandes de lo que en realidad eran. Y sin conocimiento alguno, pues sólo era un funcionario del ayuntamiento con una formación básica, se puso a tallar y pulir lentes con entusiasmo. A base de constancia acabó por aprender a construirse lentes mejores que las fabricadas por cualquier óptico. Construyó muchos microscopios y regaló varios de ellos, pero no explicó a nadie ni dejó ninguna indicación de sus métodos de construcción de lentes, por lo que tras su muerte tuvieron que pasar muchos años antes de que se construyesen microscopios tan potentes. Con ellos se dedicó a examinar literalmente miles de cosas, todo absolutamente todo lo que se le ponía por delante que pudiese colocarse ante las lentes: pelos de diversos animales y suyos propios, plumas de aves, hongos, la estructura de las hojas, semillas y madera de las plantas, las cabezas de las moscas y los cerebros que diseccionaba de ellas, el aparato picador de pulgas y piojos y el aguijón de las abejas. Fue el primero en observar en vivo la circulación de la sangre en los capilares de la cola de un pececillo. Descubrió los glóbulos rojos en la sangre y los espermatozoides en el semen. Y así centenares de observaciones más.

Y un día se le ocurrió examinar una gota de agua de la lluvia recogida en un pluviómetro, no esperando ver más que agua. Sin embargo observó que estaba llena de pequeños animalitos de varias clases que se movían y nadaban ágilmente lo que le hizo proferir el grito que comentamos al principio. Pronto se puso a buscar los animalitos en agua recogida en otros sitios y siempre los encontró. La pregunta lógica era ¿de dónde procedían? ¿Habían caído del cielo o habrían trepado las paredes de los recipientes desde el suelo? ¿Los habría creado expresamente Dios de la nada? Entonces limpió cuidadosamente un plato de porcelana y lo colocó bajo la lluvia, apartado de las salpicaduras del suelo. Miró una gota de esta agua y no vio ningún bichito. Guardó la muestra de agua durante días y volvió a examinarla, y al cuarto día vio de nuevo como empezaban a surgir animalillos. La cuestión de si los microbios debían proceder de una generación progenitora anterior, como todos los otros seres vivos, o si podían formarse espontáneamente en la materia orgánica, fue motivo de polémica y discusión durante más de 200 años.

Leeuwenhoek comunicó sus experimentos y descubrimientos a la Royal Society británica, cuyos miembros se mostraron inicialmente escépticos sobre la existencia de todo un zoológico de invisibles animalitos, según afirmaba aquel funcionario holandés que no quería explicar cómo fabricaba los microscopios que permitirían verlos. En vista de ello, en 1677, la Royal Society comisionó a Robert Hooke para construir el mejor microscopio que pudiera y llevara a cabo un cultivo en agua con pimienta según las instrucciones de Leeuwenhoek. Y para sorpresa de todos, en efecto, allí estaban esos animalitos. Leeuwenhoek fue admitido entre los miembros de la Society, y a su casa fueron a visitarle la reina de Inglaterra y el zar Pedro el Grande, a fin de contemplar las maravillas que sólo sus lentes permitían ver.

Mientras Leeuwenhoek, con sus magníficos instrumentos, continuaba examinando todo lo que se le ocurría en busca de microbios. Hasta que llegó a encontrarlos en su propio cuerpo, en la saliva de su boca y en sus propias deyecciones. En estas últimas los microbios eran particularmente abundantes cuando se encontraba aquejado de alguna ocasional diarrea. Sin embargo, no razonó que sus molestas diarreas podrían ser causadas precisamente por esos animales tan diminutos. No tuvo la suficiente imaginación para predecir que los microbios pudieran ser los causantes de muchas de las enfermedades que atacaban animales y personas, y ello pese a que, en el curso de una de sus investigaciones, comprobó que cierto tipo de uno de esos animalitos minúsculos atacaba y devoraba las larvas de almejas.

Sus cualidades como investigador no impedían que Leeuwenhoek fuera al mismo tiempo un gran aficionado a la bebida, pero le llevaron a dar su propia explicación de las resacas y la forma de remediarlas. Pues bien, según él, la resaca se producía porque el exceso de bebida volvía demasiado viscosa la sangre para circular bien, y su remedio consistía en beber gran cantidad de café, tan caliente como pudiera soportar. En una ocasión de resaca particularmente intensa, bebió café tan caliente que literalmente le levantó ampollas en la boca y a continuación se le ocurrió examinarse la saliva y el sarro de la boca. Encontró la misma fauna bucal que ya había visto en otras ocasiones pero, para su sorpresa, los bichitos estaban muertos salvo algún ejemplar solitario que se movía débilmente. De todo esto dedujo que había sido el café tan caliente quien los había aniquilado.

Falleció Leeuwenhoek a los noventa y un años y prácticamente hasta el día de su muerte estuvo observando por sus microscopios.

 

El arco iris

El arco iris

La que es, posiblemente, la primera explicación de porqué existe el arco iris la encontramos en la Biblia, que nos dice que es una señal puesta por Dios como testimonio de su pacto con la humanidad de que nunca más volvería a enviar un diluvio.

Sin embargo a los científicos no les gustan mucho las explicaciones de los fenómenos naturales en las que hay que recurrir a Dios, y prefieren encontrar otras en las que no sea necesaria su intervención. En el caso del arco iris, fue René Descartes en 1637 quien diera la primera explicación científica detallada y esencialmente correcta, basada en el cambio de trayectoria de los rayos de luz cuando atraviesan la superficie de separación entre medios de densidades diferentes, fenómeno llamado “refracción de la luz”.

La teoría del arco iris de Descartes se basa en la observación de que habrá refracción cuando la luz del Sol incida sobre una gota de agua en el aire. Esto es más fácil de comprender si imaginamos que dirigimos sobre la gota de agua la luz de una pequeña linterna que emita solamente un color de luz. En la siguiente figura vemos el camino que recorrerá la luz a través de la gota para varias posiciones de la linterna.

 


Si sostenemos la linterna en la posición 1, sobre el eje de la gota, la luz se dirige directamente a la parte trasera de ella, se refleja y vuelve sin desviarse a la posición inicial. Si desplazamos la linterna una distancia d, subiéndola a la posición 2, la refracción empieza a ser importante. La luz incide sobre el agua y se desvía con un cierto ángulo. Llega a la parte posterior de la gota, se refleja y se desvía de nuevo cuando sale. El ángulo entre las direcciones final e inicial del rayo se llama ángulo de desviación. Si desplazamos ahora la linterna la misma distancia d hasta la posición 3, sucede lo mismo. Sin embargo, si bien la posición 3 está el doble de lejos del eje que la posición 2, la desviación del rayo 3 no es el doble de la desviación del rayo 2. Algo similar sucede cuando nos trasladamos a la posición 4. Finalmente este proceso alcanza su límite en la posición 5, que representa el máximo ángulo de desviación que puede tener la luz cuando incide sobre la gota. Si subimos más arriba la linterna, por ejemplo a la posición 6, el rayo experimentará una desviación inferior a la de la posición 5. El ángulo de desviación correspondiente a la posición 5 es de 42 grados.

Podemos sacar dos conclusiones de todo esto. En primer lugar toda la luz que se dispersa desde una gota esférica de agua ha de tener un ángulo de desviación inferior a 42º y, segundo, debido al “efecto de amontonamiento”, la luz de un gran número de posiciones de la linterna se concentrará alrededor de este ángulo de 42º. Podemos ver entonces cómo la gota dispersa la luz que cae sobre ella. La luz próxima al eje de la gota saldrá de ella con ángulos inferiores a 42º. A medida que nos separamos del eje, la luz tenderá a salir más cerca del ángulo de 42º. Esto significa que la luz que sale de la gota puede imaginarse concentrada en un cono formado por este ángulo, con una iluminación difusa dentro del cono.

Supongamos ahora que una lluvia de pequeñas gotas está cayendo en el cielo y que nos situamos de espaldas a la luz como en la siguiente imagen ¿qué veremos?

Si miramos hacía la gota A, desde la cual el ángulo entre la luz incidente y la línea de nuestros ojos es inferior a 42º, estaremos mirando la luz difusa del interior del cono y no veremos mucha luz. En cambio, si miramos a una gota situada en la posición B, donde el ángulo es de 42º, la luz brillante del borde del cono llegará a nuestro ojo, y el punto B parecerá un punto brillante en el cielo. Así pues, habrá unos puntos brillantes en el cielo procedentes de cada gota donde se cumpla esta condición, y el conjunto de estos puntos brillantes será un arco de luz en el cielo.

Pero ¿cómo se explican los colores? En la mayoría de materiales, incluyendo el agua, el grado de refracción varía ligeramente de un color al siguiente. El ángulo en el cual la luz queda concentrada por una gota de agua varía de unos 42º para el azul a unos 40º para el rojo. Así la situación descrita antes dará origen a una serie de arcos de colores diferentes.

 


Hay que remarcar que en cada instante de luz procedente de partes diferentes del arco nos llega de gotas de lluvia diferentes. Un observador verá un arco azul en el punto B (con un ángulo de 42º) y, procedente de otra gota distinta, un arco rojo en el punto A (con un ángulo de 40º), y una gradación de colores entre estos dos extremos.

 

Infinito

Infinito

Para mucha gente el infinito implica algo inmenso e imposible de contar o medir, como por ejemplo: los granos de arena de las playas -que en realidad no son infinitos-. Sin embargo hace tiempo que los matemáticos empezaron a intentar obtener una medida del infinito y a descubrir reglas que permitieran que el infinito engrosara las filas de otros objetos matemáticos como un concepto lógico y disciplinado. Con todo no fue hasta el siglo XIX cuando se lograron progresos decisivos, especialmente gracias al trabajo Georg Cantor, matemático ruso nacido en 1845 en San Petersburgo, a quien se le atribuye la invención de la teoría de conjuntos y la de los cardinales transfinitos de la que hablaremos detalladamente.

El primer paso en el camino hacia el infinito es el descartar cualquier idea de lo «muy, muy grande». El infinito es mayor que cualquier número por muy grande que sea. Aristóteles hablaba de infinito potencial, como algo a lo que podemos aproximarnos cuanto queramos pero sin llegar nunca a alcanzarlo. Podemos visualizarlo en la siguiente figura, en la que vemos como se puede considerar al círculo como el resultado de un polígono en el cual el número de lados crece indefinidamente acercándosele cada vez más  pero sin llegar a alcanzarlo nunca.

 

 

El principio básico subyacente en el infinito potencial es el de que hay sistemas, como los números naturales 1, 2, 3, 4… que no tienen límite superior, de forma que nada impide que crezcan más y más. El hecho de que el infinito sea algo que nunca se puede alcanzar , algo nunca consumado, lleva a algunas paradojas embarazosas, como la de Zenón, que produjo un molesto sentimiento de incomodidad en la matemática durante 2.000 años. Esta paradoja ilustra también una cosa a primera vista sorprendente: que la suma de infinitos números puede, no obstante, dar un resultado finito. En este caso:

                                     1 + ½ + ¼ + 1/8 + …. = 2

En el siglo XVII Leibniz ya puso de relieve otra extraña propiedad del infinito. Imaginemos una fila con todos los números naturales: 1, 2, 3, 4, 5, 6… Se les da la orden «doblad vuestro valor» y todos se convierten en números pares: 2, 4, 6, 8, 10, 12… Esta mutación no ha hecho variar la cantidad de números que hay, y por tanto debe haber tantos números pares como números naturales había al principio. ¡Pero el conjunto original de números: 1, 2, 3, 4, 5… contiene a los números pares, y también a los impares!

Este resultado es asombroso. Si el infinito de números pares es tan numeroso como el de pares e impares juntos, parece como si doblando el infinito nos quedásemos con el mismo infinito. Es más, se puede mostrar fácilmente que triplicar, cuaduplicar o multiplicar el infinito por cualquier otro número tiene igualmente poco efecto. De hecho si multiplicamos infinito por infinito, éste se resiste a crecer .

Si parece sorprendente que juntando todos los números pares con los impares no hagamos mayor el infinito, lo parecerá más todavía descubrir que el resultado sigue siendo igualmente cierto incluso si juntamos también todos los números fraccionarios. Al igual que los números no tienen límite ni se acaban nunca, lo mismo ocurre con las fracciones que formamos con ellos. Pero más aún, porque hay legiones enteras de infinidades de fracciones entre cada dos números naturales. Ello es así debido a que entre dos fracciones cualquiera, por muy próximos que sean sus valores, hay todavía infinitas fracciones. Por ejemplo, tomemos dos fracciones próximas como 1/250 y 1/251. Entre ellas hay otras fracciones como 2/501 y 4/1001. Entre estas dos se hallan otras y así sucesivamente sin ningún límite.


Hay por lo tanto infinidad de infinidad de infinidad de fracciones que van apareciendo sin fin por todos los segmentos cada vez menores de la línea. Pero preguntémosle a un matemático si hay más fracciones que números enteros y responderá que no. A pesar de las infinitas reservas de fracciones que hay en el más pequeño de los intervalos que podamos tomar, dichas fracciones se pueden contar individualmente y se pueden numerar con los números naturales (es decir, aparejarlas con ellos una a una). Cualquier conjunto infinito de cosas que puedan contarse 1, 2, 3, 4, 5… tiene lo que Cantor denominó cardinal ℵ0 (alef cero. Alef es la primera letra del alfabeto hebreo). Desde luego, no es posible contar realmente este conjunto; lo único que se demuestra es que cabe ponerlo en correspondencia biunívoca con los números naturales. Los números primos, por ejemplo, sería otro conjunto de alef cero.

En este punto puede parecer que el infinito de los números naturales es tan grande que no se le puede incrementar, pero esto es falso. En un famoso teorema, Cantor demostró lo aparentemente imposible: que hay conjuntos tan grandes que no podemos contar sus elementos, incluso con ayuda de los infinitos números naturales de que disponemos. Por tanto este infinito, debe ser mayor que el de todos los números naturales y todos los números fraccionarios juntos. A este tipo superior de infinito Cantor lo denominó ℵ1 (alef 1).

Pero ¿cómo puede haber más cantidad de algo que de números? Antes de discutir la demostración de Cantor, echemos una mirada a este misterio de los números que faltan. Fijémonos de nuevo en la figura anterior. Cada fracción o número entero corresponde a un punto de la línea. ¿Pero lo inverso es también cierto? ¿Podemos asociar a cada punto una fracción? Los antiguos griegos así lo habían creído. Después de todo disponemos de infinitos ejércitos de fracciones, apiñadas de forma infinitamente densa. ¿Habrá puntos en la línea que de alguna forma se «esconden» en huecos entre las fracciones, a pesar de que éstas estén infinitamente cerca unas de otras?

Los pitagóricos descubrieron que realmente existen estos números extras en los huecos. Tomemos un cuadrado cuyo lado mida la unidad. Entonces, y según el Teorema de Pitágoras, la longitud de la diagonal de dicho cuadrado sería la raíz cuadrada de 2. Este es un número extraordinario pues no puede ser expresado como el cociente o razón de n/m, donde n y m son números enteros cualquiera sin ningún divisor común (excepto el 1). Estos números, como la raíz cuadrada de 2, que no pueden expresarse en forma de razón entera, se denominan irracionales, y su descubrimiento produjo tal consternación en escuela pitagórica que los pocos iniciados que los conocían estaban obligados a mantener el secreto so pena de expulsión o muerte. Dicho de otra forma, el punto que en la figura corresponde a la longitud de la diagonal de un cuadrado de lado la unidad, no tiene ninguna fracción asociada. Está, por increíble que parezca, escondido en un hueco infinitesimal entre las fracciones que se apiñan de forma infinitamente densa alrededor suyo. Existen infinitos números irracionales, el más conocido de los cuales es π.

Con el fin de simbolizar el conjunto de los números racionales e irracionales se utiliza el sistema decimal. Algunas fracciones, como 1/4, tienen una forma decimal finita (0’25), mientras que otras, como 1/3, necesitan de una forma decimal periódica infinita (0’3333…). Todos los números irracionales como π, precisan de infinitos decimales no periódicos. El gran hallazgo de Cantor fue que el conjunto de todos los decimales (es decir, los racionales y los irracionales) constituye un infinito mayor, el ℵ1, que el conjunto de las fracciones o números racionales. La esencia de la demostración de Cantor es que, si los decimales fueran solamente tan numerosos como las fracciones, entonces sería posible contar a todos los decimales uno por uno con los números enteros 1, 2, 3, 4…. Fijémonos en la siguiente tabla


1     0. 2 8 3 0 7 1 4 9….
2     0. 9 1 5 2 1 9 3 2…
3     0. 8 8 4 7 5 6 2 8…
4     0. 3 1 0 7 8 4 5 4…
5     0. 2 9 1 3 9 2 6 6…
6     0. 7 6 8 4 2 0 3 1…
7     0. 4 1 9 8 6 6 5 3…
8     0. 6 0 0 2 7 9 3 8
 .     ……………………

.     ……………………

.     ……………………

 


Si escribimos todos los decimales en una columna infinita, uno debajo del otro, podríamos irlos marcando con 1, 2, 3… (El orden concreto no importa, y la tabla anterior muestra uno escogido al azar). Vamos bajando por la diagonal 21479058…y sumamos uno en cada posición, con lo que tendremos 32580169… Evidentemente el decimal 0’32580169… no puede estar en ningún lugar de la tabla original, pues difiere del primer decimal de dicha tabla en su primera cifra, del segundo decimal en su segunda cifra, etc. En general difiere del enésimo decimal en su enésima cifra. Osea que llegamos a la asombrosa conclusión que el conjunto de los números decimales no es numerable, es un infinito mayor que el de los números enteros. Es por tanto un infinito superior, 1, o también transfinito.

¿Son todo esto que hemos explicado, rebuscadas sutilezas con las que los matemáticos se divierten, o tiene alguna conexión importante con la realidad física? La respuesta es que el infinito aparece repetidamente en las teorías cosmológicas, y muy especialmente en conexión con las singularidades del espacio-tiempo. Como ejemplo. veamos una extraña contradicción inherente a la teoría del Universo estacionario, en la que intervienen los dos alefs.

Pero antes veamos la siguiente variante de la demostración de la diagonal de Cantor.

Consideremos un conjunto finito de 3 objetos, digamos una llave, un reloj y un anillo. En la figura podemos ver todos los subconjuntos que se pueden formar con esos 3 objetos. El recuadro blanco indica que el objeto que aparece encima está en el subconjunto, y el recuadro negro indica que no lo está. El primer subconjunto estaría formado por los 3 elementos, y el último por ninguno. En medio se representan todas las combinaciones entre ambas posibilidades. Para cualquier conjunto de n elementos el número de subconjuntos será 2n. (Es fácil ver por qué: cada elemento puede estar incluido o no, así que para uno hay dos subconjuntos, para dos hay 2 x 2= 4 subconjuntos, para tres hay 2 x 2 x 2=8 subconjuntos, y así sucesivamente).


Si representamos los cuadrados negros como 0, y los blancos como 1, y en lugar de 3 objetos cogemos una serie infinita de ellos, podremos construir la siguiente figura


Ahora tenemos, en la parte izquierda, un número infinito de objetos y la representación de los diversos subconjuntos que se pueden formar, que como hemos dicho será 2 elevado a infinito. La parte de la derecha de esta figura es equivalente a la tabla de los infinitos decimales que vimos anteriormente, pero puestos en base 2 en lugar de en base 10. Y podemos hacer la misma transformación de una cifra en cada hilera, bajando en diagonal como hicimos antes para encontrar un número que no está en la tabla de los decimales pese a ser infinita. Digámoslo de otra manera: el infinito tiene un ℵ0, pero el conjunto de todos los subconjuntos de un conjunto ℵ0 tiene el cardinal 2 elevado a la potencia ℵ0 y da como resultado un alef superior, el ℵ1. Expresado matemáticamente:

2ℵ0 = ℵ1


Veamos como se aplica todo esto en la teoría del Universo estacionario. En esta, a diferencia de la del Big Bang, se preconiza que el Universo no tuvo ningún instante de inicio, sino que existe desde un tiempo infinito, permaneciendo siempre en un estado general estacionario (de ahí su nombre) tal y como podemos observarlo actualmente, considerando el Universo todo en su conjunto, no localmente. Según está teoría -y para compensar la expansión del Universo que rompería la «estacionalidad»-, continuamente se está formando materia nueva que compensa la que se va dispersando en tal expansión, de forma que el Universo permanece estático, salvo pequeñas irregularidades locales (irrelevantes en una visión global del Universo), desde hace un tiempo infinito. Osea que cada determinado tiempo, el número de átomos del Universo se duplica, y se vuelve a duplicar, y así lleva haciéndolo desde la eternidad.

Pero los átomos o las partículas subatómicas que los formen son un conjunto numerable, en tanto que son entidades físicas distintas de las ideales de las matemáticas, y por tanto son un conjunto ℵ0, aunque su número sea infinito. Sin embargo, según la teoría del Universo estacionario, llevan duplicándose infinitas veces, y como hemos visto 2ℵ0 = ℵ1. El espacio infinito puede acomodar fácilmente cualquier número finito de duplicaciones de la cantidad de átomos, ya que siempre que el alef cero se multiplica por 2, el resultado es alef cero nuevamente. Pero el Cosmos no puede contener un conjunto alef 1 de átomos. Esta contradicción, es otro de los motivos por los que la mayoría de los astrónomos opta por la teoría del Big Bang y descarta la del Universo estacionario.

 

Nociones de física cuántica

Nociones de física cuántica

EL PRINCIPIO DE INCERTIDUMBRE

Un rasgo importante de cualquier tipo de medición es que si un sistema perturba a otro, inevitablemente habrá una reacción recíproca sobre el primer sistema, que a su vez resulta afectado. Por ejemplo: si deseamos medir la temperatura de un líquido, introduciremos un termómetro, pero la presencia del termómetro hará que el calor fluya del líquido al termómetro hasta ponerlos a una misma temperatura. Por tanto, el líquido se enfriará algo, de modo que la lectura que haremos de la temperatura no será la original del líquido, sino la del sistema una vez perturbado. Para medir una corriente eléctrica, se inserta en el circuito un amperímetro, cuya presencia será un obstáculo para la propia corriente que se está midiendo. De igual modo ocurre si para medir la presión de un gas, usamos un barómetro; parte de la presión original se utilizará en actuar sobre éste, y la medida que nos dé no será la original del gas, sino un poco inferior. Incluso si lo que queremos medir es la posición de un objeto, pongamos Júpiter, para ello es necesario que la luz solar, una vez reflejada por Júpiter y de viajar cientos de miles de kilómetros, llegue a nuestros ojos y choque con nuestra células retinianas. Pero esta misma luz solar que, al reflejarse, nos estimula la retina, también reacciona sobre Júpiter ejerciendo una pequeña presión sobre su superficie. Por tanto, no podemos ver estrictamente hablando el «verdadero» Júpiter, sino el Júpiter perturbado por la presión de la luz.

Mientras la ciencia se ocupó de objetos macroscópicos, poca atención se prestó a los límites últimos de la mensurabilidad, pues en los experimentos prácticos nunca se alcanzaban las proximidades de tales límites. La situación cambió cuando se comenzaron a investigar las partículas subatómicas y la radioactividad.

Consideremos el problema de cómo cerciorarse de dónde está localizado un electrón. Es evidente que es necesario enviar alguna clase de sonda para que lo localice, pero ¿cómo hacerlo sin perturbarlo o, al menos, perturbándolo de una manera controlada y determinable? Si usamos luz, al igual que en el caso de Júpiter, pero en un grado incomparablemente mayor al tratarse de un electrón, la iluminación ejercerá un presión y por tanto el electrón retrocederá. El problema no es grave si podemos calcular con qué velocidad y en qué dirección se alejará el electrón al retroceder.

Ahora bien, para conseguir una buena imagen en el microscopio es necesario tener grandes lentes en el objetivo, sino la luz, al ser una onda, no pasará por la abertura sin distorsionarse, debido a que las ondas de luz rebotan en los lados de las lentes e interfieren con el rayo original. Es necesario utilizar una abertura mucho mayor que el tamaño de las ondas. De donde se deduce que para ver adecuadamente un electrón deberíamos utilizar un gran microscopio o una longitud de onda muy pequeña. Para ver un objeto hay que utilizar ondas cuya longitud sea similar o menor que el tamaño del objeto en cuestión. Para localizar un electrón, se deben utilizar ondas de la longitud más corta posible, por ejemplo rayos gamma. Pero cuanto menor es la longitud de una onda, mayor es la energía que transporta (las ondas de radio de gran longitud de onda son muy poco energéticas, mientras que la luz, y especialmente los rayos gamma, tienen longitudes de onda pequeñas y por tanto muy energéticas).


Cuando tratamos de localizar un electrón, la necesidad de utilizar radiaciones de longitud de onda muy corta, para evitar que la imagen se emborrone, entraña aceptar el violento retroceso consiguiente al empuje de estos energético cuantos. Nos vemos, pues, obligados a escoger entre exactitud de la localización y perturbación del movimiento del electrón. Queda claro que los requisitos de una exacta determinación, al mismo tiempo, de la posición y el movimiento son mutuamente incompatibles. Se puede medir con presión la localización a costa de introducir una perturbación aleatoria e indeterminable en su movimiento. O, alternativamente, se puede retener el control sobre el movimiento, a costa de una gran inseguridad sobre la posición. Este indeterminismo recíproco no es una mera limitación técnica debida a las propiedades de los microscopios, o a que nosotros seamos unos «manazas» incapaces de hacer las cosas bien, sino un rasgo básico de la materia microscópica. No hay manera, ni siquiera en teoría, de obtener simultáneamente un información exacta sobre la posición y el movimiento de una partícula subatómica. Estas ideas han sido consagradas en el famoso principio de incertidumbre de Heisenberg. No se trata tan sólo de que no podemos conocer las magnitudes del electrón. Se trata de que el electrón no posee simultáneamente una posición y un impulso concretos. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles.

 

LA INCERTIDUMBRE ENERGIA-TIEMPO

El principio de incertidumbre de Heisenberg pone restricciones a la exactitud con que se puede determinar la localización y el movimiento de las partículas, pero estas dos magnitudes no son las únicas que pueden medirse. Por ejemplo, podríamos estar más interesados por la velocidad del spin de un átomo o por su orientación. O bien, podríamos necesitar medir su energía o el tiempo que tarda en pasar a un nuevo estado energético.

Supongamos que queremos determinar la energía de un fotón de luz. La energía de un fotón es directamente proporcional a la frecuencia de la luz: al doble de frecuencia corresponde el doble de energía. Un procedimiento práctico de medirla consiste, pues, en medir la frecuencia de la onda luminosa, lo que puede hacerse contando el número de oscilaciones (es decir, de crestas y vientres de la onda) que pasan en un determinado intervalo de tiempo. Para que la operación tenga éxito es menester evidentemente que al menos se produzca una oscilación completa de la onda, y a ser posible varias, pero cada oscilación requiere un intervalo de tiempo determinado. La onda debe pasar desde la cresta al vientre y de nuevo a la cresta. Medir la frecuencia de la luz en una fracción de tiempo inferior a ésta es a todas luces imposible, incluso en teoría. En el caso de la luz visible, la duración necesaria es muy breve (una milbillonésima de segundo). Las ondas electromagnéticas con longitudes de onda mayores y menor frecuencia, tales como las de radio, pueden precisar algunas milésimas de segundo para cada oscilación.

Todo esto pone de manifiesto que existe una fundamental limitación de la exactitud con que puede medirse la frecuencia, y por tanto la energía, en un intervalo de tiempo dado. Si la duración es menor que un ciclo de onda, la energía queda muy indeterminada, por lo que hay una relación de incertidumbre que vincula la energía y el tiempo. Para conseguir una exacta determinación de la energía, es necesario hacer una larga medición, (de hecho para medir de una forma completamente exacta la energía de un acontecimiento necesitaríamos un tiempo infinito) pero si lo que nos interesa es el momento en que sucede un acontecimiento, entonces una determinación exacta sólo puede hacerse a expensas del conocimiento sobre la energía.

La limitación de las mediciones de la energía y del tiempo, al igual que las de la posición y el movimiento, no son meras insuficiencias tecnológicas, sino propiedades categóricas e inherentes a la materia. En ningún sentido cabe imaginar un fotón que realmente posea en todos los instantes una energía bien definida, ni tampoco un fotón que surja en un determinado momento con una frecuencia concreta. La energía y el tiempo son características incompatibles para los fotones, y cuál de las dos se ponga de manifiesto con mayor exactitud depende por completo de la clase de mediciones que elijamos efectuar. Vislumbramos el asombroso papel que el observador desempeña en la estructura del microcosmos, pues los atributos que poseen los fotones parecen depender precisamente de las magnitudes que el experimentador decida medir.

Una de las consecuencias más notables de la relación de incertidumbre energía-tiempo es la transgresión de la ley de conservación de la energía. En el terreno cuántico, esta ley de conservación de la energía resulta discutible. Afirmar que la energía se conserva nos obliga a poder medir con exactitud la energía que hay en un momento y en el siguiente, para comprobar que la cantidad total se ha mantenido invariable. Sin embargo, la relación de incertidumbre energía-tiempo exige que los dos momentos en que se comprueba la energía no deban ser demasiado próximos, o bien habrá cierta indeterminación en cuanto a la cantidad de energía. Esto abre la posibilidad de que en periodos muy breves la ley de conservación de la energía pudiera quedar en suspenso. Por ejemplo, podría aparecer energía espontáneamente en el Universo, siempre que volviera a desaparecer durante el tiempo que concede la relación de incertidumbre. Hablando llanamente, un sistema puede «tomar prestada» energía según un arreglo bastante especial: la debe devolver en un plazo muy breve. Cuanto mayor es el préstamo, más rápida ha de ser la devolución. Pero a pesar del limitado plazo del préstamo, durante su duración pueden pasar algunas cosas muy espectaculares con la energía prestada; no olvidemos que la energía no es más que otra manifestación de la materia.

A manera de ilustración adicional de la incertidumbre energética, examinemos el problema de hacer rodar una bola sobre un montículo. De impulsarla con poca energía, la bola alcanza sólo parte de la altura del montículo, donde se detiene y rueda de vuelta. Por otra parte, de lanzarla con mucha energía la bola conseguirá llegar hasta la cumbre del montículo, donde comenzará a rodar hacia abajo por el lado opuesto. Se plantea entonces el problema de si la bola puede tomar prestada la suficiente energía, mediante el mecanismo de préstamo de Heisenberg, para superar el montículo aun cuando haya sido lanzada a muy poca velocidad. Para comprobar estas ideas se puede estudiar el comportamiento de los electrones, que hacen el papel de bolas, cuando entran en el campo de una fuerza eléctrica que actúa lo mismo que un montículo desacelerando el ascenso de los electrones.

-Efecto túnel-

Si se disparan electrones contra esta barrera electrónica se comprueba efectivamente que algunos atraviesan la barrera, incluso cuando la energía de lanzamiento es muy inferior a la que necesitan para superar el obstáculo. Si la barrera es delgada y no demasiado «alta», la energía necesaria pueden tomarla prestada los electrones durante el breve período de tiempo necesario para que se desplacen a través de ella. Por tanto, el electrón aparece al otro lado de la barrera, aparentemente habiéndose abierto paso a su través. Es el llamado «efecto túnel» que, como todos los fenómenos controlados por la teoría cuántica, es de naturaleza estadística: los electrones tienen una cierta probabilidad de atravesar la barrera. Cuanto mayor sea el déficit energético, más improbable es que el principio de incertidumbre les sirva de fiador. En el caso de una bola real que pese unos 100 grs. y de un montículo de 10 metros de altura y 10 metros de espesor, la probabilidad de que la bola se abra paso a través del montículo cuando todavía está a un metro de la cima es sólo una entre un uno seguido de un billón de billones de billones de ceros.


EL EXPERIMENTO DE LA DOBLE RENDIJA

El experimento consiste en una pantalla opaca con dos ranuras paralelas muy próximas. Las ranuras se iluminan mediante un rayo de luz de manera que sus imágenes caigan sobre otra pantalla situada en la cara contraria. Si momentáneamente obturamos una de las rendijas, la imagen de la otra aparecerá como una franja de luz situada enfrente de la ranura abierta. Dado que la ranura abierta es estrecha, las ondas luminosas sufrirán una distorsión al atravesarla, de modo que parte de la luz se desperdigará por los lados de la franja, por lo que los bordes aparecen borrosos. Si la ranura es muy estrecha, es posible que la luz se extienda por un área bastante amplia. Cuando esté obturada la otra ranura y abierta la primera, se verá una imagen similar, pero ligeramente desplazada enfrente de esta ranura.

La sorpresa surge cuando se abren al mismo tiempo las dos ranuras. Lo que podría preverse es que la imagen de la doble ranura consistiera en la superposición de dos imágenes de una ranura, lo que tendría el aspecto de dos franjas de luz más o menos superpuestas debido a lo borroso de sus bordes. En realidad, lo que se ve es una serie de líneas regulares, compuestas de franjas oscuras y luminosas. Este curioso diagrama es precisamente un fenómeno de interferencia de ondas. Cuando la luz que emanan las dos ranuras llega en oposición de fase, es decir, las crestas de las ondas procedentes de una ranura coinciden con los vientres de las otras, la iluminación desaparece.

El experimento puede repetirse con electrones en lugar de luz, utilizando una pantalla de televisión como detector. Debemos recordar aquí que cada electrón es taxativamente una partícula. Los electrones pueden contarse uno por uno y puede explorarse su estructura utilizando máquinas de elevada energía. Por lo que a nosotros se nos alcanza, no tienen partes internas ni extensión discernible. Se rocían las ranuras a través de un pequeño agujero con electrones procedentes de una especie de pistola. Los electrones que pasan por una u otra ranura alcanzarán la pantalla detectora y chocarán contra ella liberando su energía en forma de pequeños destellos de luz. Observemos lo que ocurre cuando sólo está abierta una de las ranuras y, de momento, cerrada la otra. El chorro de electrones atravesará la ranura, se esparcirá hacia el exterior y se proyectará sobre la pantalla detectora. La mayoría de ellos llega muy cerca de la zona situada enfrente de la ranura abierta, aunque algunos se esparcirán por los alrededores. La distribución de los electrones recuerda el diagrama luminoso que se obtiene empleando luz. Una distribución similar, ligeramente desplazada, resultaría en el caso de abrir la segunda ranura y mantener bloqueada la primera. Lo fundamental del experimento es que, de nuevo, cuando se abren ambas ranuras, la distribución de los electrones muestra una estructura regular de franjas de interferencia, lo que indica la naturaleza ondulatoria de estas partículas subatómicas.

En este caso, el resultado tiene un carácter casi paradójico. Supongamos que la intensidad del haz de electrones disminuye gradualmente hasta que los electrones pasan de uno en uno por el aparato. Se puede recoger el impacto de cada electrón contra la pantalla utilizando una placa fotográfica. Al cabo de cierto tiempo dispondremos de un montón de placas fotográficas, cada una de las cuales contiene un único punto de luz correspondiente al lugar donde cada electrón concreto ha encendido un destello con su presencia. ¿Qué podemos decir ahora sobre cómo se distribuyen los electrones por la pantalla? Podemos determinarlo mirando a través de la pila de placas superpuestas, con lo que veremos todos los puntos formando un dibujo. Lo asombroso es que ese dibujo es exactamente el mismo que se produce cuando se dispara un gran número de electrones, y también exactamente el mismo que forman las ondas luminosas. Es evidente que el conjunto de acontecimientos distintos y separados, a base de un electrón cada vez, sigue presentando un fenómeno de interferencia. Además, si en lugar de repetir el experimento electrón por electrón, toda una serie de laboratorios realizan el experimento de manera independiente, y tomamos al azar una fotografía de cada prueba, entonces, el conjunto de todas estas fotografías independientes y hechas por separado ¡también presenta un diagrama de interferencias!

Estos resultados son tan asombrosos que cuesta digerir su significación. Es como si alguna mágica influencia fuera dictando los acontecimientos en los distintos laboratorios, o en momentos distintos del mismo equipo, de acuerdo con algún principio de organización universal ¿Cómo sabe cada electrón lo que los demás electrones van a hacer, quizá en otras partes distintas del globo? ¿Qué extraña influencia impide a los electrones personarse en las zonas oscuras de las franjas de interferencia y les hace dirigirse a las zonas más iluminadas? ¿Cómo se controla su preferencia en el plano individual?

La situación resulta aún más extravagante si recordamos que la interferencia característica surge, en primer lugar, como consecuencia de que las ondas de una ranura se superponen a las de la otra. Es decir, la interferencia es taxativamente una propiedad de las dos ranuras. Si se bloquea una, la interferencia desaparece. Pero sabemos que cada electrón concreto (por ser una pequeña partícula) sólo puede pasar por una de las ranuras, de manera que ¿cómo se entera de la existencia de la otra? Sobre todo, ¿cómo sabe si la otra está abierta o cerrada? Parece que la ranura por donde no pasa el electrón (y que a escala subatómica está a una inmensa distancia) tiene tanta influencia sobre el posterior comportamiento del electrón como la ranura por la que en realidad pasa.

El principio de incertidumbre de Heisenberg impide al electrón poseer una trayectoria bien definida. El movimiento del electrón por el espacio no es, pues, algo bien definido, sino más bien una especie de campo de probabilidades por el que discurren las trayectorias disponibles y posibles. Con el experimento de las dos rendijas vemos el funcionamiento de esta indeterminación inherente, pues debemos sacar la conclusión de que los trayectos potenciales del electrón pasan por ambas ranuras de la pantalla y que las trayectorias que no sigue continúan influyendo en el comportamiento de la trayectoria real. Dicho en otras palabras, los mundos alternativos, que podrían haber existido, pero que no han llegado a existir, siguen influyendo en el mundo que existe.

Vemos pues que la onda en cuestión no es una onda de ninguna clase de sustancia o materia, como el sonido, sino una onda probabilística, es decir un mero concepto matemático sin sustrato físico. Donde el efecto de la onda es mayor, allí es más probable que se encuentre el electrón. En este sentido recuerda una oleada de delincuencia que, cuando se extiende por un barrio, aumenta la probabilidad de que se cometa un delito. No es una ondulación de ninguna substancia, sino sólo de probabilidad. En el experimento de las dos ranuras, la localización probabilística de un único electrón puede explorar ambas e interferir consigo misma. Con lo que se interfiere es con la propensión del electrón a ocupar una determinada zona del espacio. De tal modo que un electrón concreto tiene más probabilidades de dirigirse hacia las franjas claras que hacia las franjas oscuras. Dada la incertidumbre inherente a la posición y al movimiento que da lugar al comportamiento ondulatorio, no puede predecirse dónde terminará un determinado electrón, pero algo puede decirse sobre todo el conjunto de ellos por medio de una estadística.


EL GATO DE SCHRODINGER

Si disparamos un haz de electrones (o incluso un único electrón), podemos escribir la formulación matemática de la onda, que avanza según la denominada ecuación de Schrodinger. La onda muestra la importante propiedad, característica de las ondas, de interferirse en el caso de que, por ejemplo, el haz choque con dos ranuras de una pantalla: pasará por ambas y la perturbación bifurcada se recombinará en forma de crestas y vientres. La onda no describe un mundo sino una infinitud de mundos, cada uno de los cuales contiene una trayectoria distinta. Estos mundos no son todos independientes; el fenómeno de la interferencia demuestra que se superponen y entrometen en sus caminos. Sólo una medición directa puede mostrar cuál de estos infinitos mundos es el real. Lo cual plantea delicadas y profundas cuestiones sobre el significado de lo «real» y sobre qué constituye una medición.

Si imaginamos ahora todos los mundos posibles -cada uno de ellos con una trayectoria distinta del electrón- como una especie de gigantesco supermundo pluridimensional en el que las alternativas se sitúan paralelamente en igualdad de condiciones, entonces podemos considerar que el mundo que resulta «real» para la observación es una proyección tridimensional de este supermundo. Necesitamos un mundo distinto para cada trayectoria del electrón, lo que significa que necesitamos una infinidad de mundos, y similares infinidades de mundos para cada átomo o partícula subatómica, cada fotón cada gravitón que exista. Es evidente que este supermundo es muy muy grande, en realidad con las infinitas dimensiones del infinito.

Una paradoja envuelve también el acto de medir. Tomemos como ejemplo la observación de un núcleo atómico radioactivo. Tal núcleo emitirá una o más partículas subatómicas que pueden detectarse con un contador Geiger, al que supondremos equipado con una escala graduada: si el indicador de la escala señala la posición A, el núcleo está intacto; si señala la posición B, el núcleo se ha desintegrado. Según la física cuántica, el estado del sistema microscópico (el núcleo radioactivo en nuestro ejemplo) debe describirse como una superposición de ondas. Es vital insistir en que la superposición no representa un conjunto de alternativas -una elección excluyente-, sino una genuina combinación superpuesta de realidades posibles. La verdadera realidad sólo queda determinada cuando se ha efectuado una medición. No obstante, aquí yace el problema. Si el aparato de medición (y eventualmente también el propio experimentador) también está compuesto por átomos, también debe describirse como una onda compuesta de una superposición de todos sus estados alternativos. En nuestro ejemplo, el contador Geiger es una superposición de los estados A y B (indicador no desviado e indicador desviado), lo cual, repetimos, no significa que o bien está desviado o bien no está desviado, sino de un modo extraño y esquizofrénico ambas cosas a la vez.

Erwin Schrodinger llamó la atención sobre un experimento hipotético que ha llegado a conocerse como la paradoja del gato de Schrodinger. Supongamos un microsistema compuesto de un núcleo radioactivo que puede desintegrarse o no al cabo de, pongamos un minuto, según las leyes de probabilidad cuántica. La desintegración la registra un contador Geiger, que a su vez está conectado a un martillo, de tal modo que si el núcleo se desintegra y se produce la respuesta del contador, se libera un disparador que hace que el martillo caiga y rompa una cápsula de cianuro. Todo el conjunto está colocado dentro de una caja cerrada junto con el gato. Al cabo de un minuto hay un 50% de probabilidades de que el núcleo se haya desintegrado. Pasado el minuto se desconecta automáticamente el instrumento. ¿Está el gato vivo o muerto?

La respuesta podría parecer que consistiera en que hay un 50% de probabilidades de que el gato esté vivo cuando miremos en la caja. No obstante si las ondas superpuestas que representan el núcleo desintegrado y el núcleo intacto están correlacionadas con las ondas superpuestas que describen al gato, el estado de dicho gato, al cabo de un minuto, no puede ser o bien vivo o bien muerto debido a esta superposición. Por otra parte, ¿qué sentido podemos darle a un gato vivo y muerto al mismo tiempo? A primera vista, parece que el gato sufre uno de esos curiosos estados esquizofrénicos, y su sino sólo queda determinado cuando el experimentador abre la caja y se digna mirar para comprobar su salud. No obstante, como es posible retrasar este último paso tanto como se quiera, el gato puede perdurar en esta animación suspendida hasta que finalmente sea expulsado de su purgatorio o resucitado a la vida por la caprichosa curiosidad del experimentador.

Presumiblemente el gato sí sabe si está vivo o muerto mucho antes de que nadie mire dentro de la caja. Cabría alegar que un gato no es un observador fiable, en la medida en que no tiene la completa conciencia de su propia existencia de que disfruta el hombre. Para eludir esta objeción, podemos substituir al gato por un voluntario humano, conocido entre los físicos como el amigo de Wigner. Si al abrir la caja lo encontramos vivo, y le preguntamos que ha sentido durante el período anterior a la apertura de la misma, no cabe duda de que respondería «nada», pese a que su cuerpo estuviera en estado de vida y muerte simultáneamente.

 

LA TEORIA DE WIGNER Y LA DE EVERETT

El propio Wigner ha propuesto que la teoría cuántica no puede ser correcta en todas las circunstancias; que cuando participa la percepción consciente del observador la teoría se desmorona y la descripción del mundo como ondas superpuestas queda invalidada. Según esta interpretación, el entendimiento de los seres conscientes ocupa un papel central dentro de las leyes de la naturaleza y de la organización del Universo, pues es precisamente cuando la información sobre una observación penetra en la conciencia del observador cuando realmente la superposición de ondas colapsa en una realidad. Así pues, en un determinado sentido ¬todo el panorama cósmico está generado por sus propios habitantes. Según la teoría de Wigner, antes de que hubiese vida inteligente el Universo no existía realmente. Esto plantea a los seres vivos la grave responsabilidad, de hecho una responsabilidad cósmica, de mantener la existencia de todo lo demás, pues si cesara la vida, todos los demás objetos -desde la menor partícula subatómica hasta la más lejana estrella- ya no disfrutarían de realidad independiente, sino que caerían en el limbo de la superposición.

Como era de esperar la idea de Wigner ha sido muy criticada. Los científicos suelen considerar la consciencia, en el mejor de los casos como algo poco definido (¿es consciente una rata? ¿y una cucaracha?). Sin embargo, debe concederse que todas nuestras observaciones y, a través de éstas, toda la ciencia se basan, en último término, en nuestra consciencia del mundo que nos rodea. Tal como se concibe habitualmente, el mundo exterior puede actuar sobre la consciencia, pero ésta no puede de por sí actuar sobre el mundo, lo que quebranta el principio, por lo demás universal, de que toda acción da lugar a una reacción. Wigner propone reafirmar este principio también en el caso de la consciencia, de modo que ésta pueda afectar al mundo, de hecho, reduciendo la superposición a realidad.

Una objeción más seria a las ideas de Wigner se plantea si participan dos observadores en el mismo sistema de observación, pues entonces cada uno de ellos tiene el poder de cristalizarlo en realidad. Para ilustrar el tipo de problema que de ahí se deriva, supongamos que estudiamos de nuevo un núcleo radioactivo, cuya desintegración dispararía un contador Geiger, pero esta vez no hay ningún observador consciente implicado de forma inmediata. Todo está dispuesto de tal modo que al cabo de un minuto, cuando la probabilidad de desintegración es el 50%, el experimento ha terminado y el indicador del contador Geiger queda fijo en cualquiera que sea la posición que en ese momento ocupe. En lugar de haber un experimentador que mire directamente el indicador, el contador Geiger es fotografiado. El verdadero problema surge si se toman dos fotografías sucesivas, llamémoslas A y B, del contador Geiger al final del experimento. Puesto que el indicador queda fijado, sabemos que la imagen de A debe ser idéntica que la de B. El obstáculo aparece si también hay dos experimentadores, llamémosles Alan y Brian, y Brian ve la fotografía B antes de que Alan vea la A. Ahora bien, B fue tomada después de A, pero es examinada antes. La teoría de Wigner exige que Brian sea aquí el individuo consciente responsable de crear la realidad, puesto que es el primero que ve su documento fotográfico. Supongamos que Brian ve el indicador desviado y afirma que el núcleo se ha desintegrado. Naturalmente, cuando Alan ve la fotografía A, ésta presentará igualmente el indicador desviado. La dificultad es que cuando se tomó la fotografía A, todavía no existía la fotografía B, ¬de manera que la ojeada de Brian a la fotografía B causa misteriosamente que A sea idéntica a B ¡aun cuando A fue tomada con anterioridad a B! Parece ser que nos vemos obligados a creer en causaciones retroactivas; al mirar Brian la fotografía, quizá muchos años después, influye en la operación de la cámara durante la fotografía anterior.

Pocos físicos están dispuestos a invocar la consciencia como explicación de la transición desde la superposición fantasmal a la realidad concreta, pero la cadena desde un sistema cuántico hasta uno no cuántico que lo observe y lo haga colapsar en una realidad, no tiene ningún otro final evidente. Podemos considerar sistemas cada vez mayores, actuando cada cual como una especie de observador de otro sistema, tomando nota del estado del sistema menor, hasta que el conjunto del ensamblaje abarque el Universo entero ¿Qué pasa entonces? Cuando nos ocupamos del Universo entero no hay, por definición, nada exterior que pueda observarlo. El Universo se supone que es todo lo que existe y, si todo está cuantificado, incluido el espaciotiempo, ¿qué es lo que puede colapsar el cosmos en realidad? ¿Quizá la consciencia de Dios?

Otra idea que disfruta de cierta aceptación entre los físicos es la propuesta por Hugh Everett en 1957. La idea básica consiste en abandonar los aspectos metafísicos de la teoría cuántica y aceptar literalmente la descripción matemática. Everett considera que las partículas atómicas existen realmente en unas condiciones concretas y bien determinadas, aunque sigan estando sometidas a las habituales incertidumbres de la mecánica cuántica. No es necesario que ocurra ninguna especial reducción a una realidad en el momento de la observación: la realidad ya está ahí. En lugar de suponer que todos los demás mundos del superespacio son meras realidades potenciales -mundos fallidos- que se codean con el mundo que nosotros percibimos pero no adquieren su propia concreción, Everett propone que esos otros universos existen realmente y son en cada punto tan reales como el que nosotros habitamos.

La teoría de Everett se denomina a veces, la de los múltiples universos. Según esta teoría el mundo está constantemente escindiéndose en incontables nuevas copias de sí mismo. Cada proceso subatómico, cada transición cuántica que tiene lugar en cada estrella, en cada galaxia, en cada remoto rincón del Universo está dividiendo nuestro mundo local en miríadas de copias de sí mismo. No sólo nuestro cuerpo, sino nuestro cerebro y, cabe presumir, nuestra conciencia se multiplica repetidamente, convirtiéndose cada copia en un ser humano pensante y sintiente que habita en otro universo muy parecido al que vemos a nuestro alrededor. A ningún individuo le es posible dejar un mundo y visitar su copia en otro. Si no podemos ver esos otros mundos ni visitarlos, ¿dónde están? Los autores de ciencia-ficción han inventado muchas veces mundos «paralelos» que supuestamente coexisten al lado del nuestro. En un determinado sentido, mucha gente tiene una imagen del cielo en forma de mundo alternativo que coexiste con el nuestro, pero no ocupa el mismo tiempo ni espacio físico.

En la teoría cuántica, la incertidumbre es absoluta, pues ni siquiera el más detallado conocimiento del estado de un núcleo radioactivo, pongamos, consigue predecir con exactitud cuándo se desintegrará. La teoría de los muchos universos aporta una nueva perspectiva a esta indeterminación fundamental. La información que habría conducido a total predictibilidad queda, por así decirlo, oculta para nosotros en los otros mundos a que no tenemos acceso. Muchos de estos otros mundos son muy parecidos al nuestro, diferenciándose tan sólo en el estado de unos cuantos átomos. Estos mundos contienen individuos virtualmente indiferenciables de nosotros en cuerpo y entendimiento. Sin embargo, no todos los demás mundos están habitados por otros nosotros. En algunos, las trayectorias ramificadas nos conducen a la muerte prematura. En otros, nunca habremos nacido, mientras que también existen aquellos que pueden haber quedado tan desviados del mundo de nuestra experiencia que allí no es posible ninguna clase de vida. Retrocediendo mucho en el tiempo, cambios muy pequeños pueden haber dado lugar a grandes diferencias actuales.

-Multiverso-

Adoptando la visión más amplia posible del superespacio, da la sensación de que toda situación a que se pueda llegar siguiendo cualquier trayectoria por retorcida que sea, ocurrirá a la postre en alguno de esos otros mundos. Habrá mundos que no tengan Tierra, ni Sol, ni siquiera Vía Láctea. Otros pueden ser tan distintos del nuestro que no existan estrellas ni galaxias de ninguna clase. Algunos serán completamente oscuros y caóticos, con agujeros negros que se tragarán al azar el material desperdigado, mientras que otros estarán quemados por las radiaciones. Existirán universos que en apariencia tengan el mismo aspecto que el nuestro, pero con distintas estrellas y planetas. Incluso aquellos que en esencia, cuenten con la misma ordenación astronómica contendrán distintas formas de vida: en muchos no habrá vida sobre la Tierra, pero en otros la vida habrá prosperado a mayor velocidad y existirán sociedades utópicas. Y aún otros habrán sufrido la total destrucción bélica, mientras que en algunos toda la Vía Láctea, incluida la Tierra, estará colonizada por extraterrestres. Las alternativas posibles no tienen ningún límite.

Todo esto plantea una intrigante pregunta ¿por qué nos hallamos nosotros viviendo en éste universo concreto y no en cualquier otro de las miríadas que hay? ¿Tiene éste algo de especial o bien nuestra presencia aquí se debe al puro azar? Por supuesto, en la teoría de Everett, también vivimos en otros muchos universos, si bien sólo una pequeña fracción de ellos está habitada, pues hay muchos más que no permiten la vida ¿Cuántas de las características que nos rodean son imprescindibles para que exista la vida?………… Dejaremos estas cuestiones para otra ocasión.

 

¿Porqué el agua es tan importante para la vida?

¿Porqué el agua es tan importante para la vida?

De todos es sabida la fundamental importancia del agua líquida para la existencia de la vida. Pero cabría preguntarse ¿por qué es tan importante el agua para la vida? ¿Qué tiene de especial el agua? De entrada está compuesta por dos de los elementos más abundantes del Cosmos, el hidrógeno y el oxígeno que ocupan los puestos primero y tercero en la lista de la abundancia. Además, el agua tiene tres características que le confieren su singularidad trascendental para la vida:


1) Es un disolvente casi universal. Las reacciones químicas que sustentan la vida no pueden darse “en seco”, es preciso que las diversas substancias, elementos y minerales estén en disolución para que puedan reaccionar entre sí. Los líquidos permiten concentraciones relativamente elevadas de moléculas, pero no imponen restricciones muy estrictas a sus movimientos, como hacen los sólidos. En los gases, las moléculas se desplazan con más libertad que en los líquidos, pero sus interacciones se dan con mucha menos frecuencia pues, por lo general, la densidad de un gas es más de mil veces inferior a la de un líquido. Dado que la evolución biológica es un proceso sumamente lento, con la edad actual del Universo es altamente improbable que haya habido tiempo suficiente para que evolucione vida sustentada en un gas. Y el agua, aunque no para todas, es un disolvente idóneo para muchas de estas substancias.


2) Todas las reacciones químicas, tanto las inorgánicas como las biológicas, tienen un rango de temperatura, más o menos estrecho, en el que se producen más óptimamente. Especialmente en el caso de las reacciones biológicas, si la temperatura es demasiado alta, puede ocurrir que las substancias se desnaturalicen y, si la temperatura es demasiado baja, las reacciones se ralentizan y no se producen al adecuado ritmo o, incluso, se detienen por completo. El agua se mantiene líquida, sin evaporarse ni congelarse, dentro del rango de temperaturas idóneo para la mayoría de las reacciones químicas biológicas.


3) La tercera peculiaridad del agua es algo evidente y que, sin embargo, es fácil que no reparásemos en ello. Todos hemos usado cubitos de hielo y hemos visto imágenes de los icebergs flotando en el mar. Sin embargo, si lo pensamos bien, esto no debería ser así. Las substancias cuando se calientan se dilatan, y cuando se enfrían se contraen y aumentan de densidad. Según esto, el hielo al ser más frio que el agua líquida, debería ser más denso y hundirse. El agua, como cualquier otro compuesto, al enfriarse se va volviendo más densa, pero sólo hasta que llega a 4ºC. A esta temperatura alcanza el máximo de densidad que vuelve a disminuir si sigue enfriándose. Esta propiedad hace que por debajo del hielo a 0ºC, puedan existir unas capas de agua líquida un poco más calientes, lo que es una buena noticia para los peces. De no ser por ello, cuando el agua superficial se enfriase a 0º y se congelase, el hielo se hundiría al fondo, y la siguiente capa de agua superficial se congelaría y hundiría a su vez, y así sucesivamente hasta que todo el volumen de agua de lagos, ríos y mares estuviese congelado imposibilitando la vida.

 

También es significante el que el agua tenga PH neutro, no es ni ácida ni básica, así como su elevado calor específico que implica que una masa de agua puede absorber o desprender grandes cantidades de calor, sin experimentar apenas cambios de temperatura, lo que tiene gran influencia en el clima.

Sabemos que en la Tierra la vida ha demostrado ser muy flexible y adaptativa a muy variadas condiciones de temperatura, salinidad, acidez, etc. Esto nos puede hacer ser optimistas a la hora de pensar como puede ser la vida en otros mundos. Pero antes de dejarnos llevar por la imaginación y conjeturar sobre vidas alienígenas exóticas, que no estén basadas en el carbono, ni el agua, conviene hacer un par de precisiones. Conocemos con mucha exactitud la química de los elementos y de los diversos compuestos en que se pueden dar y las reacciones que pueden producir. También conocemos con mucha exactitud los elementos y substancias que existen en el resto del Universo. No cabe esperar la existencia en algún lugar del Universo de algún elemento desconocido con propiedades raras y maravillosas, al menos no cabe esperar que exista en cantidades suficientemente significativas para que tenga una importancia trascendente en la formación de vida. De ser un elemento abundante casi seguro que ya lo hubiésemos detectado.

Los 3 compuestos más abundantes que pueden permanecer líquidos en un intervalo significativo de temperaturas son el amoníaco, el etano y el alcohol metílico, pero los 3 permanecen en estado líquido en intervalos muy por debajo del agua. El amoníaco, por ejemplo, se congela a -78º C y se evapora a -33º C. No se puede descartar por completo la existencia de vida basada en otro disolvente, por ejemplo metano líquido –abundante en Titán, satélite de Saturno-. Pero, aparte de que sería una vida tan diferente de la que conocemos que es difícil imaginarla, el caso es que el metano líquido solo se da a temperaturas muy bajas, posiblemente demasiado bajas para permitir una vida suficientemente evolucionada.

Por otro lado, el único elemento capaz de formar largas cadenas y formar también compuestos complejos como lo hace el carbono, es el silicio. El silicio puede crear los mismos tipos de compuestos que el carbono –ocupando el sitio de este-. Pero al final cabe esperar que el carbono resulte mejor que el silicio, no solo porque abunda 10 veces más en el cosmos, sino también porque el silicio forma enlaces químicos que son o bien considerablemente más fuertes, o bien sensiblemente más débiles que los del carbono. En concreto, la fuerza de los enlaces entre el silicio y el oxígeno permite conformar rocas duras, mientras que las moléculas complejas basadas en el silicio carecen de la resistencia necesaria para superar las tensiones ecológicas que si exhiben los átomos basados en el carbono. La corteza terrestre consta sobre todo de átomos de oxígeno y silicio, unidos con la suficiente fuerza como para durar millones de años, y por tanto incapaces de participar en la formación de nuevas clases de moléculas.

La diferente manera en que los átomos de silicio y carbono se combinan con otros átomos respalda la idea de que la mayor parte de la posible vida extraterrestre –si no toda- estará formada a partir del carbono, no del silicio. Aparte del carbono y el silicio, solo tipos de átomos relativamente exóticos, con una presencia cósmica muy inferior a la del silicio o el carbono, son capaces de unirse a otros cuatro átomos. Así la posibilidad de que la vida utilice átomos como el germanio es muy remota.