domingo, 28 de noviembre de 2010

Crean un Superfoton: condensado Bose-Einstein de fotones

Hola Elementales,

Acaban de publicar hace unos días una noticia que aunque a primera vista parece sólo de tecnología, realmente plantea dudas y cuestiones profundas, de conceptos de mecánica cuántica.
Como además ha sido un centro de investigación Universidad de Bonn no tan habitual, parece aún con más mérito.

Han conseguido algo que hasta ahora no se había conseguido, de hecho había serias dudas de que fuera siquiera posible: un Condensado de Bose-Einstein  de fotones.



Un condensado así, se postuló en 1920 en un artículo conjunto por Satyendra Nath Bose y Albert Einstein una posibilidad para un gas de átomos: si los enfriamos tanto que se acercaran todos a su estado de mínima energía, ocuparían todos el mismo estado cuántico: serían como un único superátomo o un conjunto en una extraña coherencia cuántica. En 1995 Eric Cornell y Carl Wieman encontraron por fin un condensado como el predicho teóricamente, enfriando un gas de átomos con la técnica del láser: se hace absorver a los átomos un tipo de fotones escogidos para cada tipo, al subir y bajar de órbita sus electrones con su absorción y posterior reemisión se enfría, además se extraen los átomos más energéticos con lo que se enfría aún más.

Nath Bose, cortesía de Wikipedia
El problema hasta ahora, era que al hacer eso con los fotones e intentar enfriarlos (sea lo que sea que esto signifique, si lo pensáis bien ¿tiene temperatura un fotón, oscilación térmica?) desaparecían.

Para conseguirlo, el truco ha consistido en lo contrario: considerar al fotón como una partícula, así si para enfriar partículas empleamos fotones, para enfriar fotones hemos empleado "átomos". ¿Parece lógico no? Han hecho pasar los fotones por un tanque de líquido con un pigmento a muy baja temperatura, y los fotones cruzan miles de veces entre ellos tras rebotar entre dos espejos: al final los fotones han adquirido la temperatura ultra baja de los átonos del pigmento y el fluido. Excitando el pigmento con más luz de ese tipo han ido aumentando la concentración hasta conseguir el condensado!

Aparte de las dudas profundas de la naturaleza cuántica de los fotones que se abren e intuyen, el experimento abre por fin la puerta a la posibilidad de un láser de frecuencias energéticas más altas: como por ejemplo alto ultravioleta, rayos x, etc...

El láser es un rayo de luz mono direccional, mono cromático y coherente (todos sus fotones están en un estado cuántico "en fase"). Pero no sabemos hacerlos nada más que hasta luz visible... este estado puede ser un buen sucedáneo o un buen candidato si se consigue producir en tamaños mayores y de forma industrialmente aplicable.

¿Que para qué queremos láseres de frecuencias más altas? para millones de aplicaciones que ya realizamos con el láser, pero para tamaños aún más pequeños: en biología, nanotecnología, materiales de diseño, física aplicada, etc... desde nuevos dispositivos para PC, memorias, etc más pequeños (miles de veces menores), comunicaciones para telecomunicaciones miles de veces más rápidas, etc... 

¿Que os parece eso de "enfriar la luz"?¿Y los láseres de rayos X?¿Y la posibilidad de multiplicar casi inmediatamente la capacidad de todas las fibras ópticas y memorias de almacenamiento en más de mil?


 
Un saludo


Francisco Jose Menchen

lunes, 22 de noviembre de 2010

Novedades del CERN Otoño de 2010: Sopa de Quarks y Gluones!

Sopa de quarks y gluones a 7 billones de grados (12 ceros)
Hola Elementales,

Seguro que estáis preguntándoos que qué ha pasado con el famoso experimento en el CERN de Ginebra: en el LHC (Large Hadron Collider). Y si no, seguro que ahora sí os lo estáis preguntando: ¡Es verdad con tanto ruido y de repente nada, no se oye nada de él!

Tras su desafortunado arranque en falso hace ya dos años, parada obligada de un año para repararlo y dotarlo de mejores medidas de seguridad y control, llevan ya un año funcionando y no han publicado casi nada: sólo que por fin llegaron a la velocidad y energía máxima de funcionamiento con protones hasta los 7TeV (3,5TeV por haz de protones que giran en sentido contrario y que chocan frontalmente), pero la intensidad del haz aún dejaba mucho que desear y que la irían aumentando progresivamente... pero no han encontrado nada! o mejor dicho nada realmente nuevo, inesperado o ni siquiera esperado... han vuelto a producir y medir quarks Top y partículas con el quark B (botton) para seguir el modelo... pero nada más.

La noticia es que antes de su parada periódica anual en invierno, para reajustes y sobre todo para no competir por la energía (porque consume muchísima energía) en pleno invierno con el pico local de la zona de Ginebra y alrededores, lo han cargado con IONES de PLOMO, sí han cambiado el tipo de proyectil empleado, en lugar de protones, van a emplear iones pesados de plomo desnudos totalmente de electrones.
La ventaja es evidente: se consigue una energía de choque que aumenta de manera directa con el aumento de la masa. como el plomo tiene 82 protones y muchos más neutrones (unos 125 de media, pero los isótopos estables son con 204, 206, 207 y 208, (el 210 es radiactivo y precursor del Polonio 210).
¡Así conseguimos una energía de choque de 287TeV por haz! Una energía de choque de 574TeV...

Ya se habían hecho experimentos de este tipo en el Fermilab con energías por debajo de 1Tev y se descubrió un nuevo estado de la materia: la Sopa de Quarks y Gluones. Se esperaba que fuera un tipo de plasma, pero resultó que tenía nuevas e insospechadas propiedades: era un superfluido (un material con resistencia a fluir cero, nada viscoso).

Este es el tipo de materia que tuvo que haber al comienzo del Universo, un fracción de tiempo después (unos 15 o 20 microsegundos). Y desde este estado el universo evolucionó expandiéndose y enfriándose, y esa sopa dio lugar a estructuras más complejas como protones, neutrones, etc... su estudio puede y debe arrojar luz nueva sobre las propiedades ya conocidas y por conocer (de la fuerza fuerte o de color, sobre todo).

En el CERN sólo tardaron 4 días, desde el 4 de Noviembre en vaciar de protones el circuito y llenarlo de iones de plomo. Conseguir que circule primero un haz, ajustarlo todo de nuevo, y después con dos haces a la vez girando en sentido inverso. Parece sencillo, pero sólo colimar (enfocar) un haz de partículas con 82 veces más carga y que tiende a "abrirse" y separase, pone prueba a los imanes superconductores de todo el circuito...

Por no hablar de los detectores, que hay que ajustar para que resistan estas energías y procesen la gigantesca cantidad de nuevos productos de tal colisión: si el choque de dos protones es mucho más complejo que dos electrones, porque son sistemas compuestos (de tres quarks, más la maraña de gluones que los unen, más mucha energía de movimiento interna), imaginaros un núcleo de PLOMO con 204 partículas como el protón (más de la mitad de ellos neutrones) más sus interrelaciones...
En la imagen un choque en el detector ALICE (A Large Ion Collider Experiment), observar que cantidad de nuevos subproductos tras el choque...

Y la pena: en unos días lo desmontan y se parará hasta febrero del 2010, cuando deben empezar a chocar de verdad otra vez con protones...


Técnicamente es un avance... pero como os decía de nuevo la noticia en el CERN parece ser ¡que no hay noticias! Y que todo va según lo previsto....¿no os parece poco?

Un saludo

Francisco Jose Menchen

domingo, 14 de noviembre de 2010

El Algebra, Capitulo I: La Cosa y el Cuadrado

Hola Elementales,

Vamos a comenzar una serie que pude llevarnos muchas entradas... de hecho aún se está escribiendo y como toda disciplina está viva y continúa en constante  investigación.

Los Babilonios y Egipcios ya sabían resolver problemas complejos...
El álgebra como tal podemos decir que entró en Europa a través del mundo árabe, quienes a su vez lo heredaron desde el mundo clásico griego. Ya en la Grecia  Clásica sabían planear y resolver ecuaciones, sistemas de ecuaciones de dos incógnitas tanto para números racionales (recordar que no admitían aún a los irracionales), como para Naturales ( ecuaciones diofánticas , la base de la moderna Teoría de Números). No vamos a repasar toda la historia del Álgebra, no es ese el objeto de esta página, si no entender qué es y qué pretende. Pero diremos que ha habido muchos y grandes pensadores en el mundo antiguo como: Euclides (más bien geómetra), PitágorasDiofanto de Alejandría (considerado el padre del Algegra), Proclo , Papo , etc...
La palabra "álgebra" es el nombre de la palabra árabe "Al-Jabr, الجبر" que significa "reducción". Si Diofanto es el padre antiguo, el matemático persa islámico, Muhammad ibn Musa Al-Khwārizmī es considerado así  mismo el siguiente "padre del álgebra" (de ahí viene el nombre de "algoritmo").

Los persas Omar Khayyam, Sharaf Al-Din al-Tusi y Al-Karaji encontraron respectivamente la solución geométrica de la ecuación cúbica, y la solución numérica y algebraica de diversos casos de ecuaciones cúbicas (éste último también alguna cuártica, quíntica, etc...). 
Los matemáticos indios Mahavirá y Bhaskara II,  y el matemático chino Zhu Shijie, resolvieron varios casos de ecuaciones cúbicas, de grado cuarto, quinto y ecuaciones polinómicas de orden superior mediante métodos numéricos. La matemática china estaba muy desarrollada en Teoría Numérica.

Hasta que los cuadernos de problemas de Diofanto cayeron en manos de Pierre de Fermat ... (pero esta ya es otra historia a la que llegaremos en otra entrada...sólo adelantar que Fermat iba resolviéndolos con anotaciones sobre el propio libro...incluido el famoso "Último Teorema de Fermat")

El álgebra trata de generalizar problemas... en vez de realizar operaciones con números como la aritmética empezó a generalizar los resultados con letras...

El verdadero avance del álgebra consiste en generalizar hasta el propio "método": en desarrollar conocimiento que permita abordar y resolver con certeza problemas que antes eran de "idea feliz", un ejercicio enorme de ingenio. Hasta no hace mucho había problemas que se habían resuelto de forma tan audaz que podría decirse que son un verdadero monumento al pensamiento matemático. Pero al igual que los problemas de análisis se resolvían antes así: con ocurrencias felices con tangentes ... hasta que se inventó y desarrolló el calculo infinitesimal, que resolvía de una forma sistemática todos los problemas de ese tipo...el álgebra también avanzó, sobre todo en el siglo XIX y XX.

Vamos a ver una historia increíble: con mucho ingenio se sabían resolver todas las ecuaciones de segundo grado, de tercer grado y algunas de las otras pero no todas... ¿había una solución algebraica para ecuaciones por encima de la cúbica? ¿una fórmula como las otras? ¿o simplemente aún no los habíamos encontrado?

Veamos primero la ecuación de segundo grado:



Seguro que todos visteis la formula que la soluciona en lo que antes era la enseñanza obligatoria básica y/o se repasó seguro en bachillerato o enseñanza secundaria, pero ¿de dónde sale? :
Veamos cómo solucionarla sólo con un poco de ingenio: Quiero quitar términos con la x elevada a uno y a dos. ¿Alguien sabe que fórmula relaciona términos así? Sí, el cuadrado de una suma por ejemplo. Así que haremos lo siguiente, una pequeña argucia, multiplico ambos lados de la igualdad por 4 (4 por 0 es 0, así que el otro lado queda igual).
Ahora añadimos b^2 (al cuadrado) a ambos lados de la ecuación, la segunda argucia:


Ahora, ¿alguien ve ya el cuadrado de una suma? ¿no? veamos

 (cuadrado del primero: 4x^2 mas cuadrado del segundo b^2 más dos veces uno por el otro 4bx) y pasamos el 4c que nos sobra al otro lado cambiando el signo.

Despejamos el cuadrado del paréntesis extrayendo la raíz cuadrada a ambos lados... pero hay que recordar que debemos poner dos signos: más y menos, porque ambas soluciones al cuadrado dan lugar al mismo resultado. Y pasamos b al lado derecho, con signo menos.


Ahora despejamos el dos, que pasa al otro lado dividiendo a todo lo que hay en ese lado:


Bueno, ¿no era tan difícil verdad?¿o sí? ¿a cuantos se les habría ocurrido hacer esto en un examen? Necesitaríamos un día inspirado.

La ecuación de segundo grado siempre tiene dos soluciones... aunque no siempre son reales..pero siempre hay dos soluciones complejas... la interpretación geométrica es simple, es el corte de una parábola con el eje x (y=0):

Dos soluciones reales (x=-1 y x=2)
El corte de una parábola con el eje x, si lo corta en dos puntos tenemos dos soluciones reales...

Solución única real doble (x=2 y x=2)
 Un caso especial es que sean una raíz real doble.

Solución doble compleja (x=i, x=-i) 
Si la parábola mira abierta hacia arriba y el vértice está por encima del eje X, no lo corta nunca (dos soluciones complejas siempre conjugadas, misma parte real y compleja con signos opuestos).Ídem si mira hacia abajo y esta por debajo del eje...

Tenemos así un discriminate

Dependiendo del signo tenemos uno de los dos casos... soluciones reales o complejas.
El álgebra al principio se apoyaba mucho en la geometría. Así la interpretación geométrica del cuadrado de una suma (empleado arriba) es ésta:  

Cuadrado de una suma
Como vemos hasta ahora el instinto geométrico nos ha guiado bien...en dos dimensiones, pero nos sirve sólo hasta las tres a las que estamos acostumbrados...

La resolución de la ecuación cúbica requiere mucho más ingenio y paciencia...

La vemos la semana que viene....

Un abrazo Elementales



Francisco Jose Menchen

miércoles, 10 de noviembre de 2010

Las Constantes de la Naturaleza


 Hola Elementales,


Nuestro amigo Martin me preguntaba entre otras cosas muy interesantes si la velocidad de la luz c "es siquiera constante en el vacío como prueban experimentos recientes". Podeis verlo en nuestra entrada anterior "Relatividad Especial y la velocidad de la luz".

Vamos a empezar por decir que el estado actual de nuestro conocimiento sobre las fuerzas de la naturaleza no es satisfactorio en muchos sentidos, pero especialmente en lo relativo al elevado número de constantes, aparentemente fundamentales, y que hay que ajustar empíricamente, no pueden deducirse a partir de principios sencillos. Ya se está trabajando en ello.
Otro de los aspectos no deseables es el hecho de que dependan de la unidad de medida seleccionada ya que muchas de ellas no son adimensionales. Así, algunas dependen de si decidimos medir en el sistema metrico decimal (metros, segundos, etc..) o en otro sistema (pulgadas, libras, etc...) y precisamente buscamos lo contrario: que sean Universales...

La Constante de Gravitación Universal: G

La primera constante fundamental es G, la que ponemos delante de la fórmula de la gravedad de Newton.
Es una simple constante de proporcionalidad pero tambien ajusta magnitudes: se expresa en N*m2/Kg2.
G = (6{,}67428\pm 0{,}00067) \cdot 10^{-11}~\mathrm{\frac{m^3}{kg \cdot s^2}}
Es tal vez la constante peor medida (sólo se está seguro de las tres primeras cifras...), y como vemos la fuerza de la gravedad es muy débil (si no fuera porque siempre es atractiva ni la sentiríamos).


La Constante Electrica: K

No confundir con la constante K de Bolzman para termodinamica y gases..

La ley de Coulom es practicamente igual a la de la gravitación de Newton, si sustituimos las masas por las cargas, es inversa al cuadrado de la distancia y tiene una constante de proporcionalidad llamada K
 
La constante es la de de Coulomb y su valor para unidades del SI es K = 9 * 109 * N * m2 / C2 
 
La constante K no es realmente fundamental, ya que es K=  \frac{1}{4 \pi \varepsilon} \,\!    \varepsilon = \varepsilon_r \varepsilon_0 \,\! y \varepsilon_r \,\! es la Permitividad Relativa del material (siempre es menor o igual que 1) y \varepsilon_0=8,85 \times 10^{-12} \,\! F/m es la Permitividad del Medio en el Vacío

Así pues, la constante importante es la Permitividad del Vacío.

Hay un paralelismo casi total con el campo magnético, donde definimos la "Permeabilidad Magnética de un material" como la Permitividad Relativa por la Permitividad del Vacío, μ = μrμ0, donde la importante es de nuevo la del vacío.



\mu_0 = 4 \pi \times 10^{-7}N A^{-2}

Pues bien, para enorme sorpresa de James Clerk Maxwell, cuando terminó sus famosísimas ecuaciones que unificaban definitivamente la electricidad y el electromagnetismo, descubrió que dichas ecuaciones cumplían una ecuación de onda y al despejar la velocidad de dicha onda obtuvo el siguiente y sorprendente resultado, la velocidad de esas misteriosas y (creía él) aún no observadas ondas electromagnéticas era ni más ni menos que la inversa de la raiz cuadrada del producto de la permitividad electrica, por la permeabilidad magnetica (ambas en ese medio). Así calculó la velocidad en el vacío y se sorprendió al descubrir que coincidía con la velocidad de la luz, que más o menos se conocía bien por aquella época. ¡Luego sus ecuaciones demostraban que la luz no era sino una onda electromagnética! Después hemos descubierto que hay más tipos de ondas electromagnéticas y que la luz no sólo es una onda si no que además está cuantificada en paquetes, llamados "fotones". También la gravedad se cree que se propaga a la velocidad de la luz (tanto en la Relatividad General como en los modelos que incluyen la mecanica cuantica: gravitones, etc...)


La velocidad de la luz c

\varepsilon_0\mu_0 = \frac{1}{c^2}           c=\frac {1} {\sqrt{\varepsilon_0\mu_0}}

c= 299.792.458 m/s y se suele aproximar por 3·10^8m/s

Que la velocidad de la luz es una constante se comprobó hasta la saciedad en diversos experimentos, como el famoso  experimento Michelson-Morley que determinó mediante un interferómetro que la velocidad de la luz no dependía de la velocidad del objeto que la emitía, esto descartó de golpe la suposición de que hubiera un "eter" o sustancia necesaria por la que se propagara la luz. En su lugar aparecieron las famosas transformaciones de Lorenz, la contracción de Lorentz explicaba el resultado del experimento. La rapidez constante de la luz es uno de los postulados fundamentales (junto con el principio de causalidad y la equivalencia de los marcos de inercia) de la Teoría de la Relatividad Especial.

Así pues si el vacío es homogeneo y anisótropo podemos afirmar que la velocidad de la luz es igual en todo el Universo...¿o no? Al fin y al cabo se trata de medidas empíricas realizadas ahora (en nuestro momento del tiempo y en nuestro pequeño rincón del Universo...)
 
Hay teorías que sostienen que tal vez el Universo no está acelerando su expansión, que no hace falta inventar una nueva fuerza (como la supuesta energía oscura), puede que simplemente al final de todo, la velocidad de la luz c no sea constante a lo largo del tiempo, y haya podido variar según alguna ley que aún  no conocemos...pero como vemos es imposible mover c sin que varíe la propia fuerza electro-magnética y como sabemos además también variaría la fuerza nuclear débil y creemos que el resto de fuerzas: la nuclear fuerte practicamente seguro y sospechamos que tambien la gravedad... Habría que comprobar si todo esto es posible (¿es mesurable el efecto que tendría su modificación en el pasado?) y además dicha modificación debería ser coherente y compatible con todas las características de las fuerzas ya conocidas...

La constante de Planck: h

También conocida como ħ=h/2π la constante reducida. Es el cuanto elemental de acción

E = h\nu\, ;
h =\,\, 6,626\ 068 \ 96(33) \times10^{-34}\ \mbox{J}\cdot\mbox{s} \,\, = \,\,  4,135\ 667\ 33(10) \times10^{-15}\ \mbox{eV}\cdot\mbox{s}

(es muy, muy pequeña...)
Representa la relación o constante de proporcionalidad entre la frecuencia y la energía de un fotón o cuanto de luz. Cuanto más frecuencia mayor energía posee un fotón. Así algunos rayos gamma que se reciben desde el espacio tienen una energía increible (los denominan coloquialment OMD Oh My God...).

Max Planck la descubrió en 1901 como única forma de explicar la radiación del cuerpo negro, él mismo publicó que sin duda sería falsa pero era la única que lo explicaba: se equivocó en este comentario, el Universo es cuántico. Tiró por tierra toda la imagen del mundo contínuo que se tenía por verdadedro anteriormente.

Lo cierto es que su constante aparece por todos lados del mundo subatómico o cuántico: en el momento angular de una partícula, en su energia, en el principio de incertidumbre de Heisenberg: la incertidumbre de una medida de la posición y de una medida de la cantidad de movimiento a lo largo del mismo eje sigue la relación:  \Delta x \Delta p \ge \begin{matrix}\frac{1}{2}\end{matrix} \hbar

También se ha asociado con la distancia mínima con sentido o distancia de Planck . Distancia a la que creemos que los efectos cuaticos de la gravedad son los que dominan.. y la hacen la fuerza más fuerte. A esas distancias también creemos que todas las fuerzas se unifican en una única (al menos las que ya conocemos...)..


Tiempo de Planck Tiempo (T) 5.39121 × 10-44 s

Longitud de Planck Longitud (L) 1.61624 × 10-35 m

Masa de Planck Masa (M) 2.17645 × 10-8 kg

Carga de Planck Carga eléctrica (Q) 1.8755459 × 10-18 C

Temperatura de Planck Temperatura (ML2T-2/k) 1.41679 × 1032 K



La constante de estructura fina α

O constante de estructura fina de Sommerfeld,  Arnold Sommerfeld, α, yo diría que es realmente una constante física fundamental ya que es una cantidad sin dimensiones, por lo que su valor no depende del sistema de medidas elegido. Caracteriza la fuerza de la interacción electromagnética.

 \alpha = \frac{e^2}{\hbar c \ 4 \pi \epsilon_0} = 7,297 352 568 \times 10^{-3} = \frac{1}{137,035 999 11}

Donde e es la carga elemental, h con barra es la constante reducida de Planck, c es la velocidad de la luz en el vacío, y ε0 es la permitividad del vacío.

O sea que su valor es aproximadamente 1/137.
También se puede expresar como
\alpha = \frac{k_C e^2}{\hbar c} = \frac{e^2}{2 \epsilon_0 h c}

Donde Kc es la constante de Coulomb.
En la teoría de electrodinámica cuántica, la constante de estructura fina juega el rol de una constante de acoplamiento, representando la fuerza de la interacción entre electrones y fotones. Su valor no puede predecirse por la teoría, y debe insertarse uno basado en resultados experimentales. De hecho, es uno de los veinte "parámetros externos" en el Modelo estándar de física de partículas.
En la Electrodinámica Cuántica este parámetro se puede medir directamente a partir del efecto Efecto Hall Cuantico ¡y se ha medido con una precisión de más de 23 decimales¡ Debe de ser la constante mejor medida de todas.
En la teoría electrodébil, que unifica la interacción débil con el electromagnetismo, la constante de estructura fina aparece en otras dos constantes de acoplamiento asociadas con los campos gauge de la teoría electrodébil. En esta teoría, la interacción electromagnética se trata como una mezcla de interacciones asociadas con los campos electrodébiles.

En 2010, el científico John Webb publicó un estudio en el que revelaba datos que afirmaban que la constante no era igual en todo el universo y que se observaban cambios graduales en torno a un eje concreto de éste.
 
A estas constantes hay que añadir las cargas y masas del electrón, protón, etc... sólo en la Teoría Estandard hay 17 constantes (además de las mencionadas, cargas, masas, ángulos de acoplamiento, etc...).

Interacción               Grupo gauge    Bosón                    Símbolo Fuerza relativa

Electromagnética      U(1)                fotón                      α em = 1/137

Débil                        SU(2)             W±, Z0                  αweak = 1,02 · 10-5

Fuerte                      SU(3)            gluones (8 tipos)        αs(MZ) = 0,121

Como vemos, en primer lugar hay demasiadas constantes fundamentales. En segundo lugar no podemos predecir sus valores... hay que ajustarlos tras experimentar y en tercer lugar dependen casi todas del sistema de medidas (de quien ya nos ocuparemos en otra entrada, porque también tienen lo suyo que mejorar,..).


¿Que opinais vosotros? ¿son todas ellas fundamentales o no? ¿se pueden mejorar? Para mí son muy. muy mejorables...

¡Un saludo Elementales!
 
Francisco Jose Menchen