LA TEORÍA DE LA RELATIVIDAD ESPECIAL

La URL corta de este articulo es : http://mparalelos.org/24TYzZ
[button size=”small” type=”info” value=”Siguenos en @Mparalelos” href=”https://twitter.com/mparalelos”][button size=”small” type=”info” value=”Suscribete a YOUTUBE” href=”http://www.youtube.com/mparalelos “][button size=”small” type=”info” value=”Desarga Nuestra Aplicación” href=”http://bit.ly/JWHEwx”]

plantilla-para-publicacionesDespués de algunos años de viaje, el gemelo astronauta regresa. ¿Han envejecido en la misma medida? La respuesta es no y la razón precisa de ello la dio Albert Einstein en 1905 cuando describió su teoría especial de la relatividad.

PUBLICIDAD

Para la persona que viajó en la nave espacial, el tiempo pasó más lentamente, es “más joven” que su gemelo en la Tierra. Este fenómeno se llama dilatación del tiempo y se explica con el segundo postulado de la teoría de la relatividad especial, que señala que la velocidad de la luz es la máxima velocidad que puede alcanzar un cuerpo en movimiento en el universo.

El tiempo transcurrido depende de donde hagamos nuestras mediciones, en este caso la Tierra y la nave espacial, que son los dos sistemas de referencia que utilizamos. Por otra parte, para ser consecuente con las definiciones de Einstein, debemos decir que esta dilatación del tiempo se acompaña -para el observador en movimiento, en este caso el gemelo viajero- por una contracción de las distancias.

Estos efectos ocurren a muy altas velocidades y son prácticamente imperceptibles a velocidades de la vida diaria.

Nuestro planeta recibe diariamente una gran cantidad de partículas provenientes del espacio exterior que se mueven a altas velocidades: los llamados rayos cósmicos. Muchas de estas partículas son inestables, es decir, existen como tales un período muy corto, pero al tener velocidades cercanas a la luz, su “vida media” se extiende y las podemos detectar en la tierra con instrumental adecuado. Ellas son una prueba concluyente de la validez de la teoría de Einstein al demostrar la dilatación del tiempo.

La teoría de la relatividad especial ofrece además otros resultados. Uno de ellos es la famosa ecuación E=mc2, que predice que la masa se transforma en energía y viceversa y que además explica por qué se produce la energía nuclear.

Otra de sus consecuencias es la antimateria. Cada partícula tiene asociada una antipartícula, es decir, otro corpúsculo con las mismas propiedades pero con carga eléctrica de signo contrario. Así, a un electrón le corresponde un positrón. Este conocimiento ha permitido producir nueva tecnología médica, como el tomógrafo de positrones (PET).

Para saber +

Más allá de la relatividad de Einstein

Explicamos el estatus actual de la teoría de la relatividad y las posibles nuevas implicaciones físicas que podría haber más allá de esta. Nos concentramos en dos problemas no resueltos y que continúan siendo un enigma: la asimetría materia-antimateria y el campo magnético primordial.

El inicio del siglo XX coincidió con dos de las revoluciones más importantes de la física desde la época de Newton. En efecto, en 1900 Max Planck propuso la notable idea de que para entender la radiación del cuerpo negro había que suponer que la energía del campo electromagnético que se encierra en una cavidad está “discretizada”: aparece en gránulos de energía (fotones).

Esta simple idea fue suficiente para entender las curvas experimentales que se conocían varios años antes que Planck iniciara sus estudios y que muchos otros científicos intentaron explicar antes sin éxito.

Sin saberlo, en ese año Planck dio el primer paso para lo que se entendería -25 años más tarde- como la mecánica cuántica y que es la base de las teorías que explican el mundo físico a pequeñas distancias.

Cinco años después de este descubrimiento, Albert Einstein -quien entonces tenía 26 años- formuló la teoría de la relatividad especial, una formidable extensión de la física clásica de Newton a rangos de energía muy altos y que ya eran experimentalmente accesibles en la época de Einstein.

Aún más: Einstein y otros notables científicos tales como Poincaré y Lorentz ya sabían que los fenómenos electromagnéticos no encajaban en la descripción newtoniana.

Desde un punto de vista puramente intelectual, es difícil imaginar cómo el gran físico inglés James C. Maxwell, aparte de unificar los fenómenos eléctricos y magnéticos, al mismo tiempo -y sin saberlo- construyó también la primera teoría invariante relativista, cincuenta años antes que Einstein.

En el contexto de la historia de la ciencia, la segunda mitad del siglo XIX y la primera mitad del siglo XX posiblemente son los más brillantes de la física.

El papel que desempeñó Einstein en 1905 -y aquí reside el secreto de su genio- fue construir su teoría de la relatividad usando conceptos y resultados que estaban dispersos, pero que eran conocidos por todos los científicos de su tiempo.

Uno de ellos es el concepto de universalidad de los fenómenos físicos. Es decir, cuando se hace un experimento en un laboratorio (digamos en nuestra casa), una pregunta natural es:

¿Qué pasa si repetimos el mismo experimento, en las mismas condiciones, en otro lugar y en otro instante?

Obviamente, el resultado del experimento debería ser el mismo. En el lenguaje de la física de hoy, diríamos que los resultados del experimento son invariantes bajo traslaciones rígidas en el espacio y en el tiempo.

Ahora, modifiquemos un poco las condiciones previas. Por ejemplo, supongamos que un físico realiza un experimento arriba de un bus que se mueve a velocidad constante, ¿puede otra persona, que ve pasar el bus, obtener alguna información confiable del experimento?

La respuesta es sí, y se conoce desde la época de Galileo en el siglo XV. Él fue el primer científico que dio los argumentos necesarios para que tanto la persona que va en el bus como la que observa desde tierra obtengan la misma información. Este procedimiento es lo que se llama el principio de relatividad galileano.

Sin embargo, aunque este principio parece evidente en sí, no lo es si hacemos un experimento con ondas electromagnéticas.
De acuerdo con Galileo, si el bus se mueve con velocidad v con respecto al observador en tierra y el físico que está arriba del bus enciende una linterna, nos podemos preguntar: ¿Cuál es la velocidad de los fotones que salen de la linterna, vistos por la persona que está en tierra?

Con certeza Galileo respondería: “La velocidad de los fotones es v+c”, si tanto los fotones como el autobús van en el mismo sentido y con la misma dirección, mientras que el experimento nos hará ver que -contra nuestra intuición- los fotones se mueven a la velocidad c, tanto para el físico que va en el autobús como para la persona que está en la tierra.

Esta contradicción dio lugar a la primera hipótesis de la teoría de Einstein:
La velocidad de la luz es una constante universal y es independiente del observador

La segunda hipótesis es más técnica en cuanto nos obliga a modificar las expresiones matemáticas que dicen cómo se relacionan las cantidades que caracterizan un evento, visto por dos observadores.

De acuerdo con Galileo, la manera de comparar la observación de un suceso desde dos sistemas de referencia (que se mueven a velocidad constante) es mediante una trasformación, que hoy llamamos “de Galileo”. Esta transformación -que es una fórmula matemática- da el resultado c+v mencionado arriba y establece, además, que el tiempo es absoluto e independiente del sistema de referencia.

La condición de independencia del tiempo de los sistemas de referencia es una condición obligatoria para que la formula de adición de velocidades de Galileo sea correcta.

Sin embargo, si los experimentos son consistentes con la primera hipótesis de Einstein, entonces la independencia del tiempo debería tener sólo una validez restringida, es decir, debería ser válida solo para objetos que se mueven a velocidades mucho menores que la velocidad de la luz.

Así el problema fundamental es generalizar el principio de relatividad de Galileo y al mismo tiempo encontrar un conjunto de ecuaciones que generalicen las trasformaciones de Galileo.

Notablemente, varios años antes, el físico holandés Hendrik Lorentz ya se había dado cuenta de que los fenómenos electromagnéticos eran inconsistentes con los postulados galileanos y, por ello, postuló un conjunto de transformaciones ad hoc. Los físicos las llaman trasformaciones de Lorentz y -aparte de contener las transformaciones de Galileo como un caso particular- son el punto de partida que usó Einstein para formular su segunda hipótesis:

Las leyes de la física son invariantes ante las transformaciones de Lorentz

Las implicaciones físicas de estos dos postulados son enormes. Por un lado, el tiempo deja de ser un concepto absoluto (y, por lo tanto, el concepto de simultaneidad de los eventos) y ahora depende del sistema de referencia; y, por otro, pone una cota a la velocidad máxima que se puede alcanzar, a saber: ningún objeto se puede mover más rápido que la velocidad de la luz.

La teoría de la relatividad especial tiene múltiples pruebas experimentales que demuestran que ella es correcta. Por ejemplo, la producción de partículas inestables que se crean en la alta atmósfera, o bien la existencia de materia y antimateria, que es quizás la comprobación más espectacular. Este hecho es tan interesante que merece una explicación. En efecto, dentro de las implicaciones de la teoría de la relatividad especial es posible demostrar que el cuadrado de la energía de una partícula libre es proporcional al cuadrado de su momento.

Este hecho implica que, por lo tanto, la energía puede tener dos signos.

A priori esto es inconcebible porque tal objeto sólo puede tener energía positiva. Esta dificultad fue parcialmente resuelta por el físico inglés Paul A. M. Dirac en 1927 cuando descubrió la ecuación que lleva su nombre. Ingenuamente uno podría descartar por principio el signo menos que aparece en la última ecuación porque como la partícula es libre, su energía necesariamente debe ser positiva.

Dirac argumentó en términos del “mar” de Fermi, es decir, sostuvo que el espacio está lleno de partículas de carga -e y cuando uno quita una de ellas, el vacío que queda es equivalente a poner otra partícula idéntica a la que se quitó pero con carga +e. A este vacío o “agujero” que queda en el “mar”, Dirac lo llamó antipartícula. En otras palabras, una antipartícula tiene las mismas propiedades que su partícula asociada, la misma masa, el mismo espín, excepto la carga eléctrica, que tiene signo contrario.

Esto explica por qué cuando se encuentran un electrón y un positrón se aniquilan y se producen dos fotones.

La existencia de partículas y antipartículas fue una gran predicción y fue comprobada experimentalmente en 1931 por Carl Anderson.

Toda la física de altas energías que se desarrolló desde la época de Dirac en adelante contiene la materia y la antimateria como elementos básicos, pero la explicación correcta para entender las antipartículas se conoció veinticinco años más tarde con el descubrimiento de la electrodinámica cuántica por Feynman, Schwinger, Tomonaga y otros. Aquí, se reformula la electrodinámica de manera tal que se respetan los principios de la mecánica cuántica y la relatividad especial.

La actual teoría cuántica de campos relativista es completamente correcta en el sentido de que posibles correcciones -si ellas son fehacientemente comprobadas- deberían provenir de sectores que no somos capaces de medir en la actualidad.

Por ejemplo, posibles correcciones al primer postulado de la relatividad especial que van mas allá de las mediciones originales de Michelson y Morley, son muy pequeñas. De hecho, si la velocidad de la luz fuera dependiente de los observadores y detectáramos una velocidad distinta, digamos c’, entonces la razón entre la velocidad de la luz convencional c y c’ debe cumplir |c/c’ -1| < 10-19!. Esto es una consecuencia de un análisis exhaustivo de muchas reacciones, como ha sido demostrado por Sydney Coleman y Sheldon L. Glashow.

Sin embargo, si uno acepta la teoría de la relatividad tal como está y las consecuencias que implica para la física cuántica, tenemos todavía muchos problemas que resolver. Por ejemplo, cuál es razón para que en el universo no existan tantas antipartículas como partículas. Más aún: las mediciones astrofísicas demuestran que la razón entre antibariones y bariones es del orden de 10-10, es decir, livianamente hablando, por cada antipartícula hay diez mil millones de partículas y por eso no hemos sido aniquilados por las antipartículas.¿Que pudo haber pasado en la historia del universo para que esta asimetría materia-antimateria fuera tan grande?

Los físicos no tienen todavía ninguna explicación definitiva para esto. Algunos sostienen que ciertas simetrías se perdieron por razones termodinámicas en el inicio del universo, mientras otros sostienen que la simetría de Lorentz no tenía por qué haber sido exacta en los primeros instantes del universo.

Este último punto de vista está muy en boga desde hace unos años y lo llamamos física más allá de la teoría de la relatividad. Hay dos maneras -hasta ahora- de mirar esta nueva física: una es la explicación DSR y la otra es la pérdida del principio de la relatividad (vía CPT). La sigla DSR viene del inglés doubly special relativity y la segunda proviene de un teorema sagrado de los axiomas de la teoría cuántica de campos relativista.

La primera sugiere que uno debería modificar las transformaciones de Lorentz de manera que exista una escala invariante con dimensiones de longitud. Así, la relatividad especial estaría dotada de una escala invariante con dimensiones de velocidad (c) y otra escala invariante con dimensiones de longitud; de aquí proviene el término doubly. Se piensa que esta nueva escala debería ser la longitud de Planck, es decir la distancia mínima a la que debería colapsar un agujero negro para que finalmente se evapore por efectos cuánticos.En este procedimiento se proponen extensiones no lineales de las transformaciones de Lorentz y, por consiguiente, se llega a relaciones de dispersión -es decir fórmulas entre la energía y el momento- que no son del mismo orden. Sin embargo, este procedimiento adolece todavía de una falta de estructura dinámica y aunque es muy promisorio, esta en una etapa de pleno estudio.

El segundo punto de vista es menos ambicioso. Simplemente, aquí se supone que a una teoría de campos se le deberían agregar todos los términos posibles que no cumplen la simetría CPT. Cada término tiene al frente un coeficiente (muy pequeño) que se debe determinar mediante experimentos.

Estos dos puntos de vista -los que parecen ser divergentes- han producido una interacción muy notable entre teoría y experimento.

Por ejemplo, no sólo el problema de la asimetría materia-antimateria es de interés aquí, sino también el de otros fenómenos astrofísicos tales como la búsqueda de una explicación para los intensos campos magnéticos que se observan en galaxias.

Cuando apuntan sus telescopios al cielo, los astrónomos y astrofísicos observan que las líneas espectrales de los átomos en las galaxias se desdoblan. Esto se llama efecto Zeeman, y es una característica muy particular de la existencia de campos magnéticos interactuando con átomos. Si bien es cierto que el origen de los campos magnéticos en las galaxias tiene múltiples explicaciones, existe aún otro problema a saber: en el espacio intergaláctico se observa también un débil campo magnético, que no es posible explicar por la sola presencia de materia.

¿Cuál es el origen de estos campos?
Aunque todavía no se conoce la respuesta, hay fuertes indicios de que en los primeros instantes del universo se creó un diminuto campo magnético (algunos lo llaman el campo semilla o campo magnético primordial) y que luego -cuando el universo se fue enfriando-, por un efecto de dínamo, este campo magnético creció hasta los valores que se observan actualmente.

La semilla magnética, sin embargo, sigue siendo un misterio.

Algunos argumentan que una explicación plausible podría provenir de una ruptura de la simetría relativista producida a una cierta escala de energía (la escala infrarroja). Esta ruptura y esta escala tienen consecuencias muy profundas tanto físicas como filosóficas. Por ejemplo, parecería ser necesaria una reinterpretación del principio de causalidad convencional. Este último es un asunto que, por lo demás, ya han planteado algunos filósofos de la ciencia en los últimos años.

En fin, el propósito básico aquí ha sido exponer algunos de los muchos problemas que todavía están abiertos y que -al parecer- para entenderlos se requiere ir más allá de la teoría de la relatividad.

Hay una larga lista de experimentos posibles que podrían poner de manifiesto esta nueva física y que, entre otras cosas, incluyen anomalías en el espectro de rayos cósmicos a energías muy altas. Estas ideas han dado lugar a una nueva línea de investigación en física de altas energías conocida como fenomenología de gravedad cuántica.

Aunque se cumplen cien años de la publicación del primer artículo de la teoría de la relatividad, es apropiado mencionar que también se abren nuevos horizontes en la física que, muy probablemente, están fuera de la propia teoría de la relatividad.

En un año como este, esta perspectiva puede parecer ser una herejía; sin embargo, las herejías siempre han sido un estímulo necesario para las mentes jóvenes a quienes sin duda les correspondería ser los iconoclastas de nuestro tiempo.

Quizás en esta suerte de ciclicidad histórica, Einstein, como Goethe, lanzó su pañuelo y son ahora los jóvenes -quizás sólo dos o tres entre miles- los que deberían tener el coraje de recogerlo y enfrentarse a la herencia e ir más allá de lo que dejó un gigante.

Jorge Gamboa Ríos: Dr. en Física, Universidad de Sao Paulo (Brasil), director del Departamento de Física, Facultad de Ciencia, Universidad de Santiago de Chile.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

PUBLICIDAD