jueves, 4 de febrero de 2010

EL EFECTO FOTOELÉCTRICO





"Conocemos muchas leyes de la naturaleza, estamos convencidos de que podemos descubrir más y esperamos lograrlo. Nadie puede prever cuál será la próxima ley que se descubra. Sin embargo, en las leyes de la naturaleza hay una estructura que denominamos leyes de invarianza. Esta estructura es tan poderosa que hay leyes de la naturaleza que se dedujeron partiendo del postulado de que se ajustaban a la estructura de invarianza."
EUGENE P. WIGNER



Tanto el lenguaje como la teoría necesarios, que hoy conocemos como mecánica cuántica, iniciaron su evolución en los institutos de física europeos. Empezó a embrionarse su formulación en los finales del siglo XIX y su desarrollo a los principios del siglo XX, con los trabajos del físico teórico alemán Max Planck. Planck se sentía intrigado por un problema fundamental que tenía que ver con la radiación de un denominado cuerpo negro.
Por aquellos años, ya se sabía que el color de la luz que emite un cuerpo -la gama de sus longitudes de onda- está relacionado con el material del que está hecho el objeto y con su temperatura. Hablando en general, la luz azul, con longitudes de onda muy cortas, es la que prevalece en el espectro de los objetos muy calientes; las longitudes de onda rojas, o más largas, indican menos calor. Hay representadas también otras longitudes de onda, pero como regla general, cada temperatura se relaciona con una longitud de onda dominante, que proporciona al objeto resplandeciente un color característico. Para simplificar su análisis de la radiación, los teóricos del siglo XIX habían conjurado el cuerpo negro. Al contrario que los objetos reales, esta entidad imaginaria absorbe la radiación de todas las frecuencias, lo cual la hace completamente negra. También emite radiación de todas las frecuencias, independientemente de su composición material. Los físicos experimentales habían creado ingeniosos dispositivos para aproximar esta construcción teórica a los laboratorios, y habían aprendido mucho sobre las características de la radiación del cuerpo negro. Lo que les faltaba era una teoría para predecir la distribución o forma del espectro de radiación del cuerpo negro, es decir, la cantidad de radiación emitida a frecuencias específicas a varias temperaturas.
En esa época, la generalidad de los científicos creían que la clave de este problema se hallaba en comprender la interacción entre radiación electromagnética y materia. En 1900, cuando Planck atacó el problema, aceptó la teoría electromagnética de la luz que sostenía que la luz era un fenómeno ondulatorio y que la materia -que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas- irradiaba energía en la forma de ondas de luz cuando esas partículas cargadas eran aceleradas. Comúnmente también era aceptado que la cantidad de energía radiada por una partícula cargada acelerada podía situarse en cualquier parte a lo largo de una gama continua.
Con el objetivo de estudiar la radiación de un cuerpo negro, Planck se imaginó las partículas cargadas como pequeños osciladores, acelerados y decelerados repetidamente de una forma sencilla, suave y regular, como si estuvieran unidos a un andén ingrávido. Hasta ahí, Planck se mantuvo con rigidez dentro del reino de la física del siglo XIX. Pero, desde entonces, gira en sus conceptos y se desvía radicalmente.
En efecto, para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck halló que necesitaba suponer la existencia de cuantos, o algunas diminutas divisiones de energía, antes que una gama continua de energías posibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuencia de la oscilación multiplicada por un diminuto número que no tardó en ser conocido como la constante que lleva su nombre. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpretación significativa de sus cuantos, y así quedó el asunto hasta 1905, cuando Einstein, basándose en su trabajo, publicó su teoría sobre el fenómeno conocido como «efecto fotoeléctrico». Éste, sosteniéndose en los cálculos de Planck, demostró que las partículas cargadas –que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación.

EL EFECTO FOTOELÉCTRICO

En los año finales del siglo XIX, se descubrió que las placas electrificadas de metal expuestas a la luz desprendían partículas cargadas, identificadas más tarde como electrones. Este comportamiento, que pronto fue conocido como efecto fotoeléctrico, no era especialmente sorprendente: Investigaciones anteriores del físico escocés James Clerk Maxwell y otros habían revelado que la luz era una onda que transportaba fuerzas eléctricas. Parecía plausible que estas ondas pudieran sacudir a los electrones y liberarlos de sus ligazones atómicas. Pero cuando los físicos intentaron examinar la energía cinética de los electrones liberados, surgieron los problemas. Según la lógica de la teoría ondulatoria, la luz brillante debería ser la que más sacudiera los electrones, enviando a las altamente energéticas partículas zumbando de la placa de metal; los electrones liberados por el suave empujón de una luz débil deberían tener mucha menos energía cinética.
Este razonamiento no había nacido de la experimentación. En 1902, Philipp Lenard, un profesor de física de la Universidad de Kiel, demostró que intensificando el brillo de la luz que golpeaba el metal aumentaba el número de electrones arrojados pero no aumentaba su energía de la forma esperada. Al parecer, su energía dependía no de la intensidad sino de la frecuencia de la luz que incidía sobre ellos: Cuanto mayor la frecuencia, más briosos los electrones que emergían. La luz roja de baja frecuencia, no importaba lo brillante que fuera, raras veces conseguía expulsar electrones, mientras que la luz azul de alta frecuencia y la ultravioleta -no importaba lo débil- casi siempre lo hacía. Según la física estándar, que consideraba la luz como un fenómeno ondulatorio, estos resultados no tenían sentido.
Albert Einstein se ocupó de la cuestión unos pocos años más tarde mientras examinaba las teorías de Max Planck sobre la energía radiante. En una atrevida ampliación del trabajo de Planck, Einstein propuso que la luz estaba formada por partículas (ahora llamadas fotones) antes que por ondas. Esto, dijo, explicaría limpiamente el efecto fotoeléctrico. Cada fotón contenía una cierta cantidad de energía; los fotones de frecuencias más altas contenían más que los de frecuencias más bajas. Los electrones individuales en las placas de metal absorberían la energía de los fotones individuales. Si esa energía era lo suficientemente alta, el vigorizado electrón podía volar libre de la placa. Además, puesto que la luz brillante contiene más fotones que la luz débil, debería liberar más electrones. En cualquier frecuencia dada, cuanto más brillante la luz, más denso el enjambre de fotones y mayor el número de electrones liberados.
Einstein reflexionó que la imagen ondulatoria de la luz exige que la energía de la radiación esté distribuida sobre una superficie esférica cuyo centro es la fuente luminosa; como la superficie de la onda aumenta en la misma medida que se aleja de la fuente, la energía de radiación se distribuye sobre superficies crecientes, y será cada vez más diluida. Si realmente fuera así, sería inexplicable que la distancia entre el metal y la fuente luminosa no intervenga en la energía cinética de los electrones expulsados, y que ésta dependa del color (frecuencia) de la luz. Guiado por tales reflexiones, Einstein admite que la luz posee estructura granular, y se propaga en cuantos luminosos o fotones . Con su hipótesis, el fenómeno pierde de golpe su carácter enigmático. En la imagen corpuscular, la energía luminosa no se diluye, queda concentrada en un cierto número de proyectiles, fotones, que se propagan en todas las direcciones en línea recta; a cualquier distancia, la energía del proyectil será, pues, la misma. En consecuencia, la energía cinética del electrón expulsado, 1/2 mv2 , debe ser igual a la energía del cuanto expulsador, h n, menos la fracción de la energía e empleada para arrancar el electrón del seno de la materia.Tal es el contenido de la ecuación einsteiniana 1/2 mv2 = h n-e, clave para la interpretación de una larga serie de efectos fotoeléctricos.
La explicación de Einstein del efecto fotoeléctrico fue publicada en 1905, el mismo año que su ensayo sobre la relatividad especial, y reabrió un tema que la mayoría de científicos habían dado por cerrado. Su hipótesis de la luz como partículas se enfrentó a la teoría de la luz como ondas, y la discusión prosiguió durante casi dos décadas más, hasta que los físicos aceptaron que, de alguna forma, la luz era ambas cosas. Antes incluso de que se resolviera el debate, sin embargo, el revolucionario trabajo de Einstein sobre el efecto fotoeléctrico le hizo merecedor del más ansiado premio en física, el premio Nobel. 

Pero fue el genio de Werner Heisenberg, después de haber inventado la mecánica matricial, en 1925, quién da un paso sustancial hacia la nueva teoría cuántica de los átomos. Junto con Max Born y Pascual Jordan en Gotinga, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la mecánica de Newton para calcular las órbitas de los planetas. Aunque la mecánica cuántica (como se la denominaría más tarde) concordaba magníficamente con el experimento, a sus creadores les resultaba difícil interpretarla como imagen de la realidad. La imagen visual simple de la realidad material que se deduce de la vieja mecánica newtoniana (planetas que orbitan el Sol o movimiento de las bolas de billar) no tiene analogía en la mecánica cuántica. Las convenciones visuales de nuestra experiencia ordinaria no pueden aplicarse al micromundo de los átomos, que hemos de intentar entender de otro modo.
Para concebir el mundo cuántico Heisenberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuántica. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el «principio de incertidumbre», principio que revelaba una característica distintiva de la mecánica cuántica que no existía en la mecánica newtoniana.

EL IMPERIO DE LA INCERTIDUMBRE
Es muy posible que uno de los dogmas más intrigantes en el notoriamente complejo estudio de la física cuántica sea el llamado «principio de incertidumbre de Heisenberg», principio que revela una característica distinta de la mecanica cuántica que no existe en la mecánica newtoniana. Como una definición simple, podemos señalar que se trata de un concepto que describe que el acto mismo de observar cambia lo que se está observando. En 1927, el físico alemán Werner Heisenberg se dio cuenta de que las reglas de la probabilidad que gobiernan las partículas subatómicas nacen de la paradoja -reflejada en los experimentos de pensamiento mostrados aquí- de que dos propiedades relacionadas de una partícula no pueden ser medidas exactamente al mismo tiempo. Por ejemplo, un observador puede determinar o bien la posición exacta de una partícula en el espacio o su impulso (el producto de la velocidad por la masa) exacto, pero nunca ambas cosas simultáneamente. Cualquier intento de medir ambos resultados conlleva a imprecisiones.



Principio de Incertidumbre
Cuando un fotón emitido por una fuente de luz colisiona con un electrón (turquesa), el impacto señala la posición del electrón. En el proceso, sin embargo, la colisión cambia la velocidad del electrón. Sin una velocidad exacta, el impulso del electrón en el momento de la colisión es imposible de medir.

Según el principio de incertidumbre, ciertos pares de variables físicas, como la posición y el momento (masa por velocidad) de una partícula, no pueden calcularse simultáneamente con la precisión que se quiera. Así, sí repetimos el cálculo de la posición y el momento de una partícula cuántica determinada (por ejemplo, un electrón), nos encontramos con que dichos cálculos fluctúan en torno a valores medios. Estas fluctuaciones reflejan, pues, nuestra incertidumbre en la determinación de la posición y el momento. Según el principio de incertidumbre, el producto de esas incertidumbres en los cálculos no puede reducirse a cero. Si el electrón obedeciese las leyes de la mecánica newtoniana, las incertidumbres podrían reducirse a cero y la posición y el momento del electrón podrían determinarse con toda precisión. Pero la mecánica cuántica, a diferencia de la newtoniana, sólo nos permite conocer una distribución de la probabilidad de esos cálculos, es decir, es intrínsecamente estadística. Heinsenberg ejemplificaba este notable principio de incertidumbre analizando la capacidad de resolución de un microscopio.

Heisenberg ejemplificaba su hallazgo del principio de incertidumbre que hemos sintetizado arriba, analizando la capacidad de resolución de un microscopio. Imaginemos que miramos una pequeña partícula al microscopio. La luz choca con la partícula y se dispersa en el sistema óptico del microscopio. La capacidad de resolución del microscopio (las distancias más pequeñas que puede distinguir) se halla limitada, para un sistema óptico concreto, por la longitud de onda de la luz que se utilice. Evidentemente, no podemos ver una partícula y determinar su posición a una distancia más pequeña que esta longitud de onda; la luz de longitud de onda mayor, simplemente se curva alrededor de la partícula y no se dispersa de un modo significativo. Por tanto, para establecer la posición de la partícula con mucha precisión hemos de utilizar una luz que tenga una longitud de onda extremadamente corta, más corta al menos que el tamaño de la partícula.
Pero, como advirtió Heisenberg, la luz también puede concebirse como una corriente de partículas (cuantos de luz denominados fotones) y el momento de un fotón es inversamente proporcional a su longitud de onda. Así, cuanto más pequeña sea la longitud de onda de la luz, mayor será el momento de sus fotones. Si un fotón de pequeña longitud de onda y momento elevado golpea la partícula emplazada en el microscopio, transmite parte de su momento a dicha partícula; esto la hace moverse, creando una incertidumbre en nuestro conocimiento de su momento. Cuanto más pequeña sea la longitud de onda de la luz, mejor conoceremos la posición de la partícula, pero menos certidumbre tendremos de su momento final. Por otra parte, si sacrificamos nuestro conocimiento de la posición de la partícula y utilizamos luz de mayor longitud de onda, podemos determinar con mayor certidumbre su momento. Pero si la mecánica cuántica es correcta, no podemos determinar al mismo tiempo con precisión absoluta la posición de la partícula y su momento.
El modelo del principio de incertidumbre de Heisenberg utiliza una característica del mundo cuántico que es absolutamente general: para «ver» el mundo cuántico atómico, hemos de dispersar otras partículas cuánticas de los objetos que queremos observar. Lógicamente, para explorar el microcosmos de las partículas cuánticas necesitamos pequeñas sondas, y las más pequeñas son las propias partículas cuánticas. Los físicos exploran el micromundo observando choques de partículas cuánticas. Cuanto más elevados son el momento y la energía de las partículas que colisionan, menor es la longitud de onda y menores son las distancias que pueden resolver. Por esta razón, los físicos que pretenden estudiar distancias cada vez más pequeñas, necesitan máquinas que aceleren las partículas cuánticas con energías cada vez más elevadas y luego las hagan chocar con otras partículas que constituyen el objetivo.
Dotados el círculo mundial de los físicos experimentales con poderosas máquinas aceleradoras de partículas empotradas, principalmente, en China, Japón, Estados Unidos de Norteamérica, países de la Comunidad Europea, Rusia, etc., ha permitido abrir una ventana al mundo del interior del núcleo atómico, la pequeña masa central del átomo, sólo una diezmilésima de su tamaño total. El núcleo lo componen primordialmente dos tipos de partículas, el protón, que posee una unidad de carga eléctrica, y el neutrón, similar al protón en varios aspectos, pero sin carga eléctrica. Protones y neutrones tienen interacciones muy fuertes que los unen estrechamente formando el núcleo. Los físicos estudian en particular esta fuerza, porque existe el convencimiento de que en ella reside la clave de la estructura básica de la materia: un complejo mundo de partículas.
El poder de esas máquinas abrieron una ventana al mundo del interior del núcleo atómico, la pequeña masa central del átomo, sólo una diezmilésima de su tamaño total. El núcleo lo componen primordialmente dos tipos de partículas, el protón, que posee una unidad de carga eléctrica, y el neutrón, similar al protón en varios aspectos, pero sin carga eléctrica. Protones y neutrones tienen interacciones muy fuertes que los unen estrechamente formando el núcleo. Los físicos deseaban estudiar esta fuerza, porque creían que en ella residía la clave de la estructura básica de la materia. Pero nadie podía haber previsto el rico y complejo mundo de partículas que engendraba esta vigorosa fuerza nuclear, ni lo mucho que tardaría en descubrirse una teoría verdaderamente fundamental que explicase aquella fuerza. Quedaban por delante décadas de frustración. Pero fue en la fragua de la frustración y la ignorancia donde forjaron los físicos su confianza en la teoría correcta cuando ésta llegó al fin.
Los frutos ya se empezaron a ver a finales de la década de 1940, cuando se iniciaron estas investigaciones, los físicos descubrieron unas cuantas partículas más que interactuaban vigorosamente junto a protones y neutrones; las denominaron mesones pi. Luego, en la década de 1950, cuando construyeron aceleradores de energía aún mayor, fueron encontrando más y más partículas que interactuaban vigorosamente, entre ellas hiperones, mesones K, mesones Rho, partículas extrañas, todo un zoológico de partículas de número probablemente infinito. Todas estas partículas, que interactuaban potentemente, recibieron el nombre colectivo de hadrones, que significa fuertes, pesadas y densas. La mayoría son bastante inestables y se descomponen rápidamente en hadrones más estables. ¿Qué podría estar diciendo la naturaleza? Esta proliferación de diferentes géneros de partículas subatómicas parecía una broma. Según cierto postulado tácito de la física, a medida que uno se acerca al nivel más bajo, la naturaleza se hace más simple y no más complicada.
Hoy día ha quedado ratificada esa fe en la sencillez de la naturaleza. En la actualidad, se ha llegado a tener un alto nivel de certidumbre que la materia del universo está constituida por dos grandes familias de partículas: los hadrones y los leptones.
Los hadrones participan en las cuatro interacciones fundamentales posibles entre partículas y son los únicos que presentan las llamadas interacciones fuertes. Los hadrones son partículas compuestas, fabricadas en base a seis entidades básicas (posteriormente hablaremos de ellas), que se conocen como quarks. Este modelo quark de la estructura hadrónica, que propusieron en 1963 Murray Gell-Mann (e independientemente George Zweig) quedó plenamente confirmado por una serie de experimentos que se efectuaron en el acelerador lineal de Stanford en 1968. Estos experimentos permitieron localizar quarks puntiformes emplazados en el protón y el neutrón «como pasas en un budín».
Los físicos consideran hoy los hadrones manifestaciones de la dinámica de unos cuantos quarks que orbitan unos alrededor de otros, agrupados en una pequeña región del espacio, una simplificación inmensa si la comparamos con el zoológico infinito de partículas. En varios sentidos, esta simplificación era similar a la que lograron los químicos del siglo XIX, cuando llegaron a la conclusión de que podían formarse miles de compuestos moleculares a partir de unas ocho docenas de elementos atómicos.
A finales de la década de 1970, tras importantes descubrimientos experimentales y teóricos, se completó una nueva imagen del micromundo subatómico. Las unidades básicas de la materia, como ya lo hemos mencionado, se agruparon en dos grandes familias, a las cuales hay que agregarle una antifamilia. Las interacciones de las partículas y antipartículas que conforman estas familias podían explicar, en principio, todas las cosas materiales del universo. Lo que implicaba un paso sustancial dentro del concierto de la empresa que conforman los científicos para comprender la naturaleza. Ello, ha representado una poderosa herramienta conceptual necesaria para entender mejor los enigmas del universo.
Al modelo matemático que describe esas partículas y sus interacciones se le denomina el «modelo estándar». Lo describiré con detalle en la última sección de este sexto capítulo de «A Horcajadas En El Tiempo». Pero antes es importante que encontremos un medio de imaginar el micromundo de partículas cuánticas. ¿De qué clase de «material» están compuestas esas partículas? ¿Cómo podemos concebir el mundo cuántico y sus distancias subnucleares? Para abordar estas cuestiones, los físicos han inventado un lenguaje sumamente matemático, denominado «teoría relativista del campo cuántico». Esta teoría proporciona la estructura conceptual precisa para concebir las interacciones de partículas cuánticas, lo mismo que la física newtoniana proporciona la estructura conceptual precisa para pensar en el movimiento de los planetas.


Arellano A. Wilson I.
EES


No hay comentarios:

Publicar un comentario