domingo, 27 de junio de 2010

The Quantum Mechanical Model of the Atom

Energy Is Quantized
After Max Planck determined that energy is released and absorbed by atoms in certain fixed amounts known as quanta, Albert Einstein took his work a step further, determining that radiant energy is also quantized—he called the discrete energy packets photons. Einstein's theory was that electromagnetic radiation (light, for example) has characteristics of both a wave and a stream of particles.
The Bohr Model of the Atom
In 1913, Niels Bohr used what had recently been discovered about energy to propose his planetary model of the atom. In the Bohr model, the neutrons and protons are contained in a small, dense nucleus, which the electrons orbit in defined spherical orbits. He referred to these orbits as "shells" or "energy levels" and designated each by an integer: 1, 2, 3, etc. An electron occupying the first energy level was thought to be closer to the nucleus and have lower energy than one that was in a numerically higher energy level. Bohr theorized that energy in the form of photons must be absorbed in order for an electron to move from a lower energy level to a higher one, and is emitted when an electron travels from a higher energy level to a lower one. In the Bohr model, the lowest energy state available for an electron is the ground state, and all higher-energy states are excited states.
Orbitals and Quantum Numbers
In the 1920s, Werner Heisenberg put forth his uncertainty principle, which states that, at any one time, it is impossible to calculate both the momentum and the location of an electron in an atom; it is only possible to calculate the probability of finding an electron within a given space. This meant that electrons, instead of traveling in defined orbits or hard, spherical "shells," as Bohr proposed, travel in diffuse clouds around the nucleus.
When we say "orbital," the image below is what we picture in our minds.
                
To describe the location of electrons, we use quantum numbers. Quantum numbers are basically used to describe certain aspects of the locations of electrons. For example, the quantum numbers n, l, and ml describe the position of the electron with respect to the nucleus, the shape of the orbital, and its special orientation, while the quantum number ms describes the direction of the electron's spin within a given orbital.
Below are the four quantum numbers, showing how they are depicted and what aspects of electrons they describe.
Principal quantum number (n) Has positive values of 1, 2, 3, etc. As n increases, the orbital becomes larger—this means that the electron has a higher energy level and is less tightly bound to the nucleus.
Second quantum number or azimuthal quantum number (l ) Has values from 0 to n – 1. This defines the shape of the orbital, and the value of l is designated by the letters s, p, d, and f, which correspond to values for l of 0, 1, 2, and 3. In other words, if the value of l is 0, it is expressed as s; if l = 1 = p, l = 2 = d, and l = 3 = f.
Magnetic quantum number (ml) Determines the orientation of the orbital in space relative to the other orbitals in the atom. This quantum number has values from -l through 0 to +l.
Spin quantum number (ms) Specifies the value for the spin and is either +1/2 or -1/2. No more than two electrons can occupy any one orbital. In order for two electrons to occupy the same orbital, they must have opposite spins.


Orbitals that have the same principal quantum number, n, are part of the same electron shell. For example, orbitals that have n = 2 are said to be in the second shell. When orbitals have the same n and l, they are in the same subshell; so orbitals that have n = 2 and l = 3 are said to be 2f orbitals, in the 2f subshell.
Finally, you should keep in mind that according to the Pauli exclusion principle, no two electrons in an atom can have the same set of four quantum numbers. This means no atomic orbital can contain more than two electrons, and if the orbital does contain two electrons, they must be of opposite spin.
Publicado por:
Acuña Rey Andres Eduardo
C.R.F

!!! Nanotecnología: una muy pequeña gran revolución !!!

La nanotecnología en comunicaciones e informática constituye un marco de trabajo especialmente activo dadas las enormes expectativas que está levantando su gran potencial. Firmas como HP, Toshiba, NEC, IBM, Lucent o Motorola están destinando importantes presupuestos a este campo de la investigación.

La computación cuántica, los autómatas celulares basados en dots cuánticos y la computación basada en el ADN son algunas de las áreas de la informática en las que la nanotecnología aparece como la base conceptual que posibilita estos desarrollos. En la industria de las redes, la nanotecnología surge como el paso siguiente a la fotónica, debido a las expectativas que está generando tanto en lo que se refiere a emisores y fotodetectores como a conmutadores. También es de destacar el inmenso futuro que la nanotecnología tiene en el campo concreto del software, donde cobra una importancia especial en aplicaciones de modelización y simulación. En un sentido amplio, por nanotecnología se entiende la tecnología basada en la manipulación de la materia en la escala dimensional del nanómetro o, lo que es lo mismo, en la escala u orden de magnitud de la milésima de micra. De hecho, permite trabajar con dimensiones inferiores a mil nanómetros, lo que conlleva la manipulación de la materia a nivel atómico o molecular. Dado que este nuevo tipo de tecnología presenta una amplia variedad de aplicaciones potenciales, especialmente en la electrónica, es razonable pensar que su impacto en los futuros sistemas informáticos y de comunicaciones podría ser realmente espectacular.

Nanoelectrónica avanzada

Dentro del marco interdisciplinar global de referencia que ofrece la Física, capaz de analizar la materia a escala atómica y molecular, si desde hace tiempo la microelectrónica trabaja en la progresiva miniaturización de los dispositivos electrónicos, ahora la nanoelectrónica se mueve con dimensiones mil veces más reducidas que antes. La nanoelectrónica se puede considerar dentro de la tendencia general hacia la miniaturización iniciada con la introducción de los semiconductores en el campo de la electrónica, tendencia que cada vez se muestra más crucial para el desarrollo de los sistemas de comunicaciones y ordenadores. En este contexto, cabe citar tecnologías como, por ejemplo, CMOS, VLSI (Very Large Scale Integration) y ULSI (Ultra Large Scale Integration).A medida que el tamaño de los dispositivos microelectrónicos disminuye y la industria entra en el campo de acción de la nanoelectrónica, dejan de ser aplicables los principios de la física clásica para entrar en escena los efectos de física cuántica. De hecho, los límites físicos impuestos por el proceso de miniaturización de los dispositivos electrónicos están determinados por efectos cuánticos. Aquí cabe considerar varias nanoestructuras básicas en las cuales los efectos cuánticos juegan un papel central, al menos en lo que se refiere a la conducción eléctrica (transporte electrónico): pozos cuánticos, nanotubos de carbono y los llamados nanodots (estructuras cuasi puntuales).

Otro aspecto fundamental de la nanotecnología es su relación con la llamada computación cuántica. Este tipo de computación se basa en la noción de estado ocupado por una partícula cuyo movimiento se rige por las leyes de la mecánica cuántica, de forma que los bits de información adoptan una correspondencia con los estados cuánticos de acuerdo con la lógica binaria. Su potencial teórico es tal que, si realmente los ordenadores cuánticos acaban siendo los ordenadores del futuro, se alcanzarán velocidades de acción increíbles.

Impacto en las comunicaciones

La incidencia de la nanotecnología en el campo de las comunicaciones y, generalizando, en el campo de las tecnologías de la información, podrá ser realmente notoria en un futuro más bien cercano. Sus aplicaciones potenciales abarcan desde el radar digital, receptores de medidas electrónicas de apoyo, procesado de datos ATM y las comunicaciones de banda ancha al procesado digital de imágenes, generación de formas de onda, aplicaciones de conversión analógica/digital y digital/analógica, y las comunicaciones por fibra óptica.En buena medida, estas aplicaciones potenciales son consecuencia de la implementación, a nivel de laboratorio, de diferentes dispositivos nanoelectrónicos como transistores de efecto de campo, diodos láser avanzados (como, por ejemplo, VCSEL) para redes troncales de comunicaciones ópticas o nano-uniones para microondas, entre otros. Se trata de avanzar en la reducción progresiva del tamaño de la circuitería al tiempo que se consiguen cada vez mayores velocidades de proceso, por lo que los sistemas nanoelectrónicos resultan idóneos para la consecución de elevados anchos de banda. Una de las áreas donde la nanotecnología tiene mayor impacto es la de comunicaciones por fibra óptica, en cuya espectacular evolución viene jugando un papel vital. En este campo de aplicación hay que destacar la existencia de troncales de fibra monomodo con velocidades de transmisión mil veces mayores que las velocidades de los sistemas de hace 20 años basados en diodo láser de arseniuro de galio y fibra multimodo. Este notorio avance ha sido posible gracias a los logros de la nanotecnología fundamentalmente en el desarrollo del diodo láser de pozo cuántico múltiple basado en la tecnología de fosfuro de indio, que funciona en monomodo longitudinal y que posee buenas características térmicas. También ha sido crucial el descubrimiento del amplificador de fibra dopada con erbio y el empleo de redes de difracción de fibra en escala nanométrica para proporcionar amplificación uniforme sobre una fracción considerable de la ventana óptica de fibra de bajas pérdidas. Además, cabe señalar el hecho de que las estructuras de nanodot cuántico pueden actuar como conmutadores totalmente ópticos ultra rápidos.

Impacto en la informática

En el campo de la informática, dispositivos nanoelectrónicos de alta velocidad darán lugar a nuevas arquitecturas de procesamiento de la información. En este marco de referencia, podemos mencionar la computación cuántica, los autómatas celulares basados en nanodots cuánticos, la electrónica molecular y la computación basada en cadenas biológicas de ADN. Estas nuevas arquitecturas darán lugar a cambios radicales en los problemas hasta ahora asociados a la tecnología de la información. Otras estructuras de gran interés en el área de la informática son los discos magnéticos cuantizados (discos basados en efecto magnético cuántico), los sistemas fotónicos (los cuales permitirán comunicaciones ópticas eficientes), los sistemas nano-mecánicos y una gran variedad de dispositivos y estructuras relacionados con sistemas en interacción asociados a objetos tanto biológicos como no biológicos. Concretamente, a partir de ciertos objetos es posible la obtención de sistemas de interacción.En lo relativo al registro magnético en disco duro, hay que destacar las estructuras basadas en el llamado efecto magneto-resistivo gigante. Estas estructuras pueden actuar como sensores extremadamente sensibles de campos magnéticos; en otras palabras, el nivel de detección de cualquier campo magnético es muy elevado. Las estructuras en cuestión consisten en capas de láminas metálicas magnéticas y no magnéticas; las capas críticas poseen espesores comprendidos en el margen de los nanómetros. Por otro lado, el transporte de electrones con polarización de spin que tiene lugar entre las capas magnéticas en la escala nanométrica de longitudes da lugar a la capacidad de las estructuras para la detección de campos magnéticos tal como sucede con los bits magnéticos almacenados en disco de ordenador. Este hecho es de gran relevancia en el contexto de la industria de almacenamiento magnético en disco duro. Este tipo de almacenamiento está basado en la variación de la resistencia eléctrica de ciertos materiales cuando están sometidos a la acción de campos magnéticos; se trata del efecto magneto-resistivo cuyo mayor exponente es el efecto magneto-resistivo gigante al que nos hemos referido anteriormente.

Electrónica molecular

Dentro de la evolución de la tecnología de ordenadores, es fundamental la incidencia de la llamada electrónica molecular. La electrónica molecular se refiere a las moléculas consideradas como dispositivos electrónicos cuánticos diseñados y sintetizados por medio de procesos químicos; una vez efectuada la síntesis de tales moléculas, se realiza su ensamblaje en circuitos por medio de procesos de auto organización y auto alineamiento. La meta crucial que debe alcanzar la electrónica molecular en un futuro más o menos cercano es la utilización de las moléculas ( típicamente moléculas orgánicas) como conmutadores electrónicos y el empleo de los nanotubos de carbono como cables en los circuitos. Si se consigue esta meta, se espera la consecución de memorias de ordenador no volátiles con un millón de veces la densidad superficial de bits de las memorias DRAM actuales y con una eficiencia de potencia mil millones de veces mayor que la de los circuitos CMOS convencionales. En definitiva, la electrónica molecular se puede considerar como un avanzado punto de referencia a la hora de evaluar las posibilidades de la nanotecnología en el ámbito de la electrónica digital y de los ordenadores. El hecho de que la reducción del tamaño de los dispositivos electrónicos puede continuar con su ritmo exponencial actual implica que llegarán aproximarse a las dimensiones de las moléculas dentro de unas pocas décadas.

Fundamentos de la computación cuántica

Las tecnologías de la información y las comunicaciones se basan en los bits, que se corresponden con determinados estados físicos concretos; basta recordar el concepto básico de conmutador, en términos de circuito abierto (un estado) y circuito cerrado (otro estado). Lo que se ha buscado siempre es implementar sistemas capaces de pasar de un estado estable a otro a velocidades extremadamente elevadas; estos sistemas se han implementado tradicionalmente mediante tecnología electrónica, basada a su vez en tecnología de semiconductores, germanio, silicio y, más recientemente, semiconductores compuestos como arseniuro de galio. En los inicios de las tecnologías de la información, los estados estables se conseguían mediante válvulas de vacío (los antecesores de los semiconductores), que ocupaban un espacio realmente considerable, de forma que los ordenadores llegaban a pesar hasta 30 toneladas, como la máquina ENIAC y de Von Neumann de los años 40. Hubo además otros nombres emblemáticos como Charles Babbage o Turing, que se inscriben en el marco histórico que generó una nueva materia conocida como matemática discreta y cuyos antecedentes se sitúan en la lógica matemática.

En términos generales, esta nueva disciplina puede considerarse como el marco teórico de las tecnologías que conllevan en alguna forma la "discretización", o sea, que trabajan con sistemas discretos, que pueden tomar solo determinados valores.Los avances en tecnología electrónica han conseguido grandes velocidades de computación y dispositivos extremadamente pequeños, gracias a los avances en la tecnología electrónica como, fundamentalmente, la tecnología de semiconductores y la de software. Sin embargo, la concepción genérica no ha cambiado: sigue basándose en dos estados que generan los bién conocidos 0 y 1, los bits de información. Los sistemas siguen basados en las leyes de la llamada física clásica, la física que contempla los fenómenos de la naturaleza desde una perspectiva macroscópica. Bajo los principios de la física cuántica. Como su nombre indica, la computación cuántica se basa en sistemas físicos que no siguen las leyes de la mecánica clásica, sino las leyes de la mecánica cuántica. Pero, considerando la situación del estado del arte de esta tecnología, incluso los más optimistas ven la disponibilidad comercial de ordenadores cuánticos como algo muy lejano. Lo único que aparece más cercano en el tiempo, según los investigadores, es la aparición, dentro de dos años aproximadamente, de prototipos de 10 bits, cifra que se irá ampliando progresivamente apartir de entonces. Donde la utilidad práctica de este planteamiento cuántico aparece de una manera más inmediata es en campos como la criptografía o la simulación. En el primero, concretamente, se trabaja en la obtención de métodos avanzados de codificación y manipulación de la información.

La aportación de la cuántica a la criptografía, que se remonta a los trabajos pioneros de Bennet, Brassard y Wiesner en la década de los 70, consiste básicamente en la casi imposibilidad de interceptar un canal de información, ya que cualquier intervención, por extremadamente débil que sea, altera el estado cuántico de la "comunicación" de una forma prácticamente inevitable, con lo cual desde un punto de vista teórico, se podría detectar cualquier tipo de interferencia.Cambio de modelo de computación. La cuántica cambia el paradigma teórico de computación: la codificación de la información en bits cuánticos, conocidos como qubits (quantum bits), se basa en que a un qubit le corresponde tanto un 0 como un 1 simultáneamente, en lugar del esquema clásico en que se almacena o bien un 0 o bien un 1. Así, en un registro de 64 qubits se pueden llegar a almacenar hasta 2 elevado a 64 valores a la vez y además se pueden realizar cálculos con todos estos valores también a la vez. Es fácil observar que este planteamiento conduce de una manera directa y natural a una concepción de paralelismo masivo, no sólo porque aumenta enormemente el nivel de paralelismo que se puede obtener sino que, al mismo tiempo, se reduce, también enormemente, el tamaño del hardware; con los esquemas electrónicos el aumento en capacidad de paralelismo conlleva un aumento importante del tamaño del hardware.La cuántica se basa en una concepción estadística y explica perfectamente la fenomenología de los sistemas físicos; de ahí el éxito que ha tenido la mecánica cuántica para explicar el entorno microscópico. Sin embargo, Albert Einstein, Boris Podolsky y Nathan Rosen pusieran reparos a la concepción estadística en un contexto ondulatorio y, en consecuencia, formularon la teoría EPR (así llamada por las iniciales de sus creadores), basada en correlaciones/estados entre objetos/átomos enlazados (entangled) dos a dos de forma cuántica; a estos pares se les conoce como pares/estados EPR. Treinta años más tarde, John Bell, basándose en la teoría EPR estableció las bases de la computación cuántica en su estado actual.

La correlación, clave en la computación cuántica, se explica frecuentemente mediante la paradoja conocida como "Alice y Bob". Alice y Bob juegan lanzando "monedas" (que en realidad son partículas) al aire: al principio, el comportamiento de las "monedas" al ser lanzadas parece normal, siguiendo el principio de los resultados aleatorios (el bien conocido caso en estadística de lanzar monedas o dados). Sin embargo, tras un cierto tiempo, se observa que cada vez que en la caída de la moneda de Alice sale cara, sucede lo mismo con la moneda de Bob, y viceversa. Esta observación tiene lugar a pesar de que no existe ningún mecanismo de enlace físico o comunicación entre Alice y Bob y/o sus monedas (partículas). Así se explica la correlación en la cuántica EPR. Las correlaciones aparecen entre átomos/objetos individuales; de ellos se dice que están "enlazados/enzarzados" mediante mecanismos de mecánica cuántica.Los trabajos de laboratorio en este campo se inscriben básicamente en criptografía, en particular en la obtención de claves cuánticas distribuidas en fibra óptica. En el campo concreto del procesamiento cuántico se han publicado resultados acerca de dispositivos capaces de realizar cien funciones lógicas con dos qubits y diez funciones con siete qubits, este último basado en resonancia magnética nuclear. Se han publicado también trabajos en los que se afirma haber conseguido el entanglement en el laboratorio, concretamente en una trampa de iones enfriada (para estabilizarlos) mediante láser: cinco iones de calcio, que representan los qubits, quedan atrapados por electrodos; las transformaciones cuánticas de los iones se realizan mediante los láseres.

Publicado po:
Acuña Rey Andres Eduardo
C.R.F

HP Nanotecnologia y Mecánica Cuántica para un Futuro Inmediato

Nanotecnología,  describe  una tecnología basada en la manipulación de la materia a través de la escala  de un nanómetro (la milmillonésima parte de un metro). La nanoescala es reconocida fundamentalmente en el microcósmo, en el hábitat de los átomos y las moléculas. Sin embargo, aplicaciones recientes, han hecho que ésta tecnología, tenga sus nuevos valores en el desarrollo de la ingeniería de materiales, logrando que notables investigadores hayan podido diseñar materiales, mucho mas durables y resistentes, aprovechando los cambios en las propiedades de las sustancias cuando se reducen a la dimensión nanoescalar.

                  

La nanotecnología dá respuestas trascendentes a la producción comercial, sin embargo la misma conlleva  a profundos riesgos sociales y ambientales, no solo por ser una tecnología que potencia a la industria biotecnológica, sino también porque incluye manipulación atómica y porque abre la posibilidad de la fusión entre el mundo biológico y el mecánico. Los últimos avances en ésta materia concluyen que para algunos empresarios, la nanotecnología será su negocio, pero un amplio número de empresas querrán utilizar la nanotecnología para mejorar los productos que ya tienen. Las aplicaciones más prometedoras de esta ciencia, que aún no se ha desarrollado plenamente, son la energía, la agricultura, el tratamiento de las aguas, el tratamiento de enfermedades, la administración de fármacos, el procesamiento de alimentos, la contaminación, la construcción, la monitorización de la salud y la detección y el control de plagas.

A corto plazo, la nanotecnología dará lugar a materiales más ligeros y fuertes con propiedades distintas a las de los materiales que conocemos hoy, lo que supondrá una importante transformación de los sistemas de armamentos. Las propiedades de estos materiales podrán ser modificadas y controladas como se quiera: fibras inteligentes que pueden cambiar su color, características electrónicas o su forma; sistemas inteligentes o super materiales, realizados con componentes de precisión atómica, lo que puede llevar a estructuras moleculares con alta conductividad eléctrica o potencia.

Nanotecnología y Mecánica Cuántica

Durante décadas, la mejora del rendimiento de los chips se ha obtenido en gran parte reduciendo el tamaño de los transistores y los cables, para concentrar más potencia en menos espacio. Pero la reducción del tamaño de los transistores trae consigo problemas de generación de calor, de defectos y problemas físicos básicos. En reciente visita de un servidor a Palo Alto, California, tuvimos la oportunidad un grupo de periodistas de Latinoamérica y Canadá, de conocer la sede de HP Lab, reconociendo el avance de ésta organización en ésta materia. . fué uno de los voceros encargados en recibirnos... nos comenta... "A medida que los transistores se achican son menos eficientes y desperdician energía", "De este modo, los transistores son lo suficientemente grandes para que sean muy fiables", añadió.
                     

Gordon Moore para 1965 formuló la ley que lleva su nombre, que establece que el número de transistores en un chip se duplica cada 24 meses. Cada transistor cumple la función como un interruptor que permite el flujo de energia,  transmitir o no electricidad en el procesador de la computadora. "...La industria trabaja con procesos de fabricación de 65 nanómetros, es decir, de 65 mil millonésimas de metro, y se prepara para migrar a 45 nm usando hafnio y otros materiales para aislar transistores. Hasta ahora se hacía con silicio. Intel, se prepara para usarlo a fines de este año. "El uso del silicio tiene un límite, y hay que pensar más allá -agregó Kuekes-. En 1996 empezamos a investigar el futuro del chip pensando en 2020. Así que comenzamos a pensar en nanotecnología y mecánica cuántica."
Kuekes desde su despacho en HP Labs, se especializa junto a un equipo en la construcción de nanocables, de  pocos átomos de grosor, los cuáles tendrán como función principal, la conección de los elementos microscópicos de un procesador. Al igual Kuekes es el encargado del diseño de nuevas arquitecturas para procesadores, que tienen como objetivo final, el ordenamiento oesquema de orden en que los transistores se ordenan dentro de un chip y los elementos que logran itenconexión y comunicación, logrando alcanzar disminución o ahorro de energía.

Por otro lado los FPGA, ofrecen un vehículo de demostración especialmente útil, ya que la mayoría del silicio utilizado (alrededor del 80 por ciento) se dedica a los cables y a los switches y únicamente un 20 por ciento se dedica a la lógica. Si tiene éxito, la nueva arquitectura, denominada interconexión de nanocables programables o FPNI (field programmable nanowire interconnect), podría cambiar la tendencia en la industrial del chip con el uso de más FPGA. Puesto que los FPGA se pueden configurar, pueden repararse o mejorarse incluso una vez que se encuentran dentro de un producto. Pero también tienen un precio muy elevado, por lo que las empresas normalmente los utilizan durante la fase de desarrollo del producto y posteriormente cambian a circuitos integrados específicos de la aplicación o ASIC (Application Specific Integrated Circuits). Esto podría cambiar si existieran FPGA menos costosos.

De acuerdo con un reciente estudio de Lux Research, las empresas norteamericanas gastaron $1.7 billion en investigación en nanotecnología durante 2004 y para el presente año se va por el camino de superar ampliamente estas cifras. Incluso más impresionante es que el 30% de las compañías que forman parte del Dow Jones Industrial Average, incluyendo nombres como DuPont, Volkswagen, Merck y General Electric, han anunciado alianzas con empresas de nanotecnología.

Publicado por:
Acuña Rey Andres
C.R.F

Paginas de Refencia:

Descripcion de los Agujeros Negros ¿ Existen ?

En las profundidades del espacio y en el corazón de las galaxias acechan monstruos: agujeros en el espacio que atrapan a los incautos que se atreven a acercarse. Esa es la visión popular de los agujeros negros. Pero estas bestias cósmicas son incluso más fascinantes  y temibles de lo que su reputación sugiere.

Visiones oscuras

El concepto de un objeto tan masivo que ni tan siquiera la luz es capaz de escapar su atracción gravitatoria fue modelado inicialmente el 1783. El geólogo John Michell escribió una carta a la Royal Society contando que si una estrella fuera lo bastante masiva un cuerpo cayendo desde una altura infinita hacia él habría adquirido en su superficie una velocidad superior a la de la luz, y toda la luz emitida desde tal cuerpo sería obligada a retornar por su propia gravedad. Este punto de vista fue rechazado por más de un siglo, porque los físicos creían que la luz no podía ser desviada por la gravedad. A pesar de ello, la teoría de la relatividad general de Einstein de 1915 predijo que esta desviación sí que ocurre tal como se demostró experimentalmente. Esto implica que estos cuerpos capturadores de luz sugeridos por Michell podían ser posibles, aunque Einstein se mostraba reacio a aceptar que un objeto tan extraño pudiera existir en realidad.
      

El término "agujero negro" fue acuñado por el físico cuántico John Wheeler, que también ideó el término "agujero de gusano". Los físicos teóricos han dedicado décadas a demostrar que los agujeros negros son consistentes con las ideas de Einstein y que se comportan tal y como deberían hacerlo. Entonces el desafío consiste en encontrar uno.

A la caza de los agujeros negros

Habida cuenta de que los agujeros negros son negros, tal y como es el espacio, deberíamos esperar que sean difíciles de localizar. Pero de hecho, hay astrónomos que los pueden buscar.
Por ejemplo, los agujeros negros provocan un enorme empuje gravitacional en las estrellas de sus inmediaciones. Este empuje, y la existencia de los agujeros negros, pueden inferirse de la observación del movimiento de las estrellas. En algunos casos las estrellas aparecen orbitando un compañero invisible y, si los cálculos demuestran que su masa es superior a cierta cantidad, es probablemente un agujero negro.

La intensidad gravitatoria de un agujero negro también tiende a atraer gas y polvo, que forma un "disco de acreción" a su alrededor. La fricción producida en el disco calienta el material, haciendo que se emitan inmensas cantidades de radiación, que los telescopios pueden detectar. Algunos modelos sugieren que los discos de acreción pueden alcanzar el tamaño de un sistema solar y brillar tanto como una estrella.

Otro tema es que la luz de las estrellas que se encuentra detrás de un agujero negro, visto desde la Tierra, debería ser desviada por la gravedad. Este proceso se llama lente gravitacional, y las mediciones de la desviación de la luz pueden ser utilizadas para inferir la existencia de un agujero negro. Esto podría sonar a evidencia circunstancial, pero la mayoría (aunque no todos) de los astrónomos convienen en que la evidencia es lo bastante fuerte para aceptar que los agujeros negros existen. Y están cada vez más cerca de obtener una imagen directa de la bestia evasiva. En los últimos años, han encontrado evidencia de materia que se desvanece en una región donde se sospecha que hay un agujero negro, sugiriendo que ha sido devorada, y los telescopios más potentes podrían ser capaces de tomar imágenes directas de las trazas de un agujero negro en los próximos años.

Persiguiendo el calor

Puede que haya muchas otras maneras de captarlos. Parece contradictorio: todo el mundo "sabe" que los agujeros negros no permiten que nada, ni tan siquiera la luz, se escape. Pero hace 30 años Stephen Hawking  sugirió que deberían emitir calor. Incluso en el espacio vacío, pares de partículas (una de materia y otra de antimateria) pueden pasar a existir por un instante antes de aniquilarse entre sí y desaparecer. Si esto sucede cerca del horizonte de sucesos de un agujero negro, uno de los compañeros puede ser succionado por el agujero negro mientras que el otro escapa. Desde el punto de vista del mundo exterior, el agujero negro ha emitido una partícula.
Esto nunca se ha observado en la realidad, pero los investigadores han desarrollado modelos de horizontes de sucesos y simulaciones por ordenador que sugieren que debería ocurrir. Y si la radiación de Hawking existe, los agujeros negros, con su inmenso poder, deberían evaporarse lentamente.

Como crear un agujero negro

Los agujeros negros se forman cuando las estrellas más masivas colapsan sobre sí mismas. A medida que la gravedad empuja las capas más externas hacia el interior, la estrella aumenta su densidad cada vez más. Eventualmente su campo gravitatorio se vuelve tan intenso que la luz emitida por la estrella se ve afectada, volviéndose hacia la superficie en vez de salir al exterior.
Una vez la estrella ha pasado por este punto crítico, toda la luz es devuelta, sin posibilidad de escapar.

El colapso final es un evento sucio y caótico que puede llevar más de un día. Esto puede producir espectaculares chorros de rayos gamma o explosiones de supernova. Pero en algunos casos al menos, ocurre sin acompañamiento de fuegos artificiales, y es en estos casos en los que parecería que la estrella se desvanece sin dejar rastro. Hay otras maneras en las que un agujero negro puede formarse, al menos en teoría. Por ejemplo, podrían formarse pequeños agujeros negros cuando los rayos cósmicos de altas energías colisionan con moléculas en las capas altas de la atmósfera. (El hecho es que esto no tiene ningún tipo de efecto catastrófico sobre la Tierra, y si ocurre, es una de las razones por las que los físicos del CERN en Ginebra, Suiza, están tan seguros de que las historias de miedo sobre agujeros negros producidas en el Large Hadron Collider no tienen fundamento).Una forma, múltiples tamaños

El proceso de colapso destruye cualquier característica original de la estrella salvo la masa, el electrón y la carga eléctrica: cualquier otra cosa es radiada en forma de ondas gravitatorias. El agujero negro resultante se dice que "no tiene pelo" para indicar que no hay trazos de su existencia anterior. Así que los agujeros negros únicamente pueden cambiar en términos de estas cantidades, y la más obvia es su masa. Los agujeros negros varían enormemente en tamaño, desde Goliats con la masa de un millón de estrellas a otros literalmente microscópicos.
Los astrónomos los clasifican en cuatro clases, a saber:

Agujeros negros supermasivos poseen como mínimo 100.000 veces la masa de nuestro sol. Se encuentran a menudo en el centro de las galaxias pero no está claro cómo alcanzan semejante tamaño: el mayor conocido tiene la masa de 18.000 millones de soles. Y se sugiere que existe un límite superior. Ningún agujero negro podría tener más de 50.000 millones de masas solares.
Agujeros negros intermedios son la oveja negra de la familia. Su masa está entre centenares y miles de veces la de nuestro sol, hasta que recientemente ha habido una pequeña evidencia de que existen. Aunque, ciertas fuentes de rayos X y misteriosas estrellas errantes han aumentado la credibilidad. Los agujeros negros intermedios podrían haberse formado cuando estrellas errantes colisionan entre sí, y fundiéndose con varias estrellas sucesivamente.

Agujeros negros de masa estelar tienen masas del orden de la de nuestro Sol. El mayor conocido tiene 33 masas solares, mientras que el más pequeño tan sólo 3.8 masas solares. Los Micro agujeros negros son hipotéticos. Muchísimo más pequeños que una estrella, deberían ser presa fácil de la radiación de Hawking y evaporarse muy deprisa, así que no podemos esperar encontrar ninguno ahora mismo. Aunque, podrían haberse formado inmediatamente después del big bang, cuando el cosmos era extremadamente caliente y denso. Este tipo de objetos ancestrales se llaman agujeros negros primigenios y deberían existir en un amplio rango de tamaños, desde microscópicos hasta supermasivos. Únicamente el más masivo de todos ellos podría haber sobrevivido hasta la actualidad.

La carga de un agujero negro y su rotación pueden afectar a su comportamiento. Por ejemplo, la rotación puede causar que algunos agujeros negros expulsen violentos chorros de materia, tal y como se describe en la siguiente sección, podría además revelarnos su mayor secreto.

Anatomía de un agujero negro

A pesar de numerosos intentos de modelar lo que ocurre en un agujero negro, nadie lo sabe con seguridad. El modelo que predomina sobre el interior de un agujero negro sugiere que su corazón es una región infinitamente densa conocida como singularidad. Si la idea de infinitamente denso te resulta difícil de entender, no te preocupes: este concepto que suena tan paradógico aparece porque las leyes de la física se rompen en ese extremo. Mientras no tengamos una teoría que integre la mecánica cuántica y la gravedad, los físicos teóricos están igual de desconcertados que cualquier otro sobre lo que ocurre dentro de un agujero negro, aunque no han cesado en el empeño de averiguarlo.

Dado que las singularidades rompen las conocidas leyes de la física de forma tan espectacular, Roger Penrose y otros propusieron la "hipótesis del censor cósmico" según la cual, toda singularidad ha de estar rodeada por un horizonte de sucesos. No es una barrera física sino un punto de no retorno: los objetos que pasan a través de ella nunca pueden escapar del agujero negro (ver a continuación para entender cómo la mecánica cuántica fundamenta esta idea). Por tanto la singularidad está escondida del resto del universo: nunca veremos una singularidad "desnuda".

La hipótesis del censor cósmico nunca se ha demostrado, y con el paso de los años han habido intentos de mostrar que las singularidades desnudas pueden existir. De hecho, algunos sugieren que los agujeros negros con carga y que rotan muy rápido podrían ser persuadidos a revelar la singularidad, y otros han mostrado que esto no funcionaría.

Destruyendo un agujero negro

Cada vez que un agujero negro "emite" una partícula de radiación de Hawking, debe perder parte de su masa. A lo largo de miles de millones de años, incluso los agujeros negros más masivos deberían adelgazar y eventualmente desaparecer. Y esto nos conduce a un enorme problema. Si conoces la masa, carga eléctrica y el momento angular de un agujero negro, sabes absolutamente todo lo que necesitas conocer (N. del T. Con tres números es suficiente). Para describir completamente a una estrella, en el extremo opuesto, deberías conocer absolutamente todo acerca de cada una de las partículas que la constituye. Por tanto una inmensa cantidad de información se desvanece aparentemente cuando el agujero negro se forma. Y esta información no puede escaparse sencillamente del agujero negro, porque esto implicaría viajar más deprisa que la luz.

Si el agujero negro fuese a existir para siempre, la información quedaría almacenada en su interior. Pero si el agujero negro termina por evaporarse, tal y como obliga la radiación de Hawking, entonces la información se destruye irremediablemente y las leyes de la mecánica cuántica no lo permiten. Esta es la llamada paradoja de la información (N. del T: El principio holográfico y la paradoja de la información). Muchas de las soluciones propuestas involucran el replantearse los agujeros usando la teoría de cuerdas. Estas soluciones llevan hacia consecuencias extrañas pero físicamente plausibles: por ejemplo, un objeto lanzado en el interior de agujero negro podría existir en dos lugares al mismo tiempo, o que la singularidad se convertiría en un "pelusón" de cuerdas subatómicas.La paradoja también se puede resolver si los agujeros negros no contienen una singularidad verdadera, o si tal como Stephen Hawking sugiere, la radiación de Hawking contiene dicha información, aunque en un enmarañado e ilegible estado. Incluso se ha sugerido que los agujeros negros podrían ser agujeros de gusano: puertas hacia otros universos.

Cuando los agujeros negros colisionan

Pese a la imagen popular de los agujeros negros como monstruos que acechan para capturar a los desprevenidos, al menos algunos han sido observados surcando velozmente el espacio. Esto eleva la posibilidad de que colisionen entre ellos, si las condiciones son las apropiadas. Si lo hicieran, las simuladores por ordenador sugieren que podrían fundirse para formar un agujero negro más grande. Hay tres tipos de situaciones que han sido simuladas con éxito. Este tipo de agujeros negros podrían revelarse por su efecto en la forma de las galaxias que los contienen, y en los restos infrarrojos y ultravioletas.

No se han visto colisiones directamente, pero los astrónomos han encontrado varios agujeros negros muy cerca unos de otros e incluso algunos que se orbitan entre sí y otros que de hecho se encuentran en rumbo de colisión.

Viviendo con un agujero negro

El vecindario de un agujero negro puede ser un lugar muy ocupado. Tal como ya se mencionó antes, un agujero negro puede acumular todo el polvo en un disco de acreción, pero esto es sólo el comienzo. Se ha observado materia cayendo en espiral en un agujero negro, y la gravedad de un agujero negro puede ocasionar que los fotones temporalmente orbiten a su alrededor. En una escala mayor, muchos agujeros negros podrían disparar inmensos chorros de materia muy energética, alimentados por potentes campos magnéticos. En un caso, estos chorros han demostrado producir burbujas de hasta 300.000 años luz de diámetro.Aunque resulte sorprendente, las simulaciones demuestran que las estrellas se pueden formar en la vecindad de un agujero negro, aunque las que se aventuren demasiado cerca serían destruídas.
   

Tal y como podríamos esperar, algunas estrellas sin suerte son devoradas por agujeros negros. Algunos agujeros negros lo hacen visiblemente, liberando explosiones de rayos gamma y rayos X, cada vez que se alimentan, mientras que otros son de comer menos y emiten muy poca radiación a la hora de comer.

Galaxias y agujeros negros

Los astrónomos generalmente están de acuerdo en que los agujeros negros acechan en el centro de muchas galaxias, y han identificado candidatos plausibles en muchas de ellas, incluyendo nuestra vecina la galaxia enana M32 y nuestra propia, La Vía Láctea. El agujero negro del centro de la Vía Láctea ha sido estudiado a fondo. En estos momentos se encuentra en periodo de ayuno sin devorar ningún trozo de materia significativo desde hace varias décadas, pero si encuentra alguna presa nueva volverá a hacerlo de nuevo.

Han habido además declaraciones sobre si existe un segundo agujero negro más pequeño en el centro galáctico, pero la evidencia actual es insuficiente. Además, se ha propuesto que el mayor agujero negro devoró a su hermano pequeño. Cuando las galaxias colisionan, sus agujeros negros centrales deberían colisionar igualmente. Hay razones para creer que estas colisiones podrían eyectar a uno o a ambos agujeros negros, mandándolos hacia el espacio intergaláctico.
Se ha sugerido que estos agujeros negros deben estar ahí cuando se forme una galaxia o incluso, que directamente siembran la formación de galaxias. Aunque, algunas galaxias parecen no tenerlos, con lo que el asunto no está zanjado todavía.

La conexión cósmica

Incluso si los agujeros negros no son responsables de formar las galaxias, siguen siendo extremadamente importantes para nuestro entendimiento del universo como un todo.
Puede que hayan sido los responsables de burbujas cósmicas en el universo primitivo. Han podido ser además la fuente de poder detrás de quasars increíblemente luminosos y también de explosiones de rayos cósmicos de muy alta energía. Incluso si se evaporasen de forma violenta podrían ayudarnos a revelar dimensiones espaciales adicionales. Y pese a su formidable naturaleza, puede que incluso lleguen a estar al servicio del hombre, actuando como el acelerador de partículas definitivo. Los teóricos han sugerido incluso que podrían llegar a servir de motor para naves interestelares.Es un camino largo, pero puede que los agujeros negros ayuden a nuestros descendientes a explorar el universo, además de ayudarnos a entenderlo.
Publicado por:
Acuña Rey Andres
C.R.F
Paginas de Referencia:

El Efecto Lamb y el Nacimiento de la Electrodinámica Cuántica

Corrían los años 50 del siglo XX. En el contexto de la Física Moderna ya hacía un par de décadas de la ecuación de Schrödinger, de los trabajos de Dirac, Bohr, y se empezaba a comprobar como no todo era tan fácil como aplicar el paradigma desarrollado en aquellos primeros años de la mecánica cuántica.
        
Un paso natural tras desarrollar la ecuación de Schrödinger fue aplicarla al modelo atómico. El caso más simple de todos ellos es el átomo hidrogenoide. Es decir, un núcleo y un electrón supuestos ambos puntuales y de tal manera que el centro de masas del sistema está en el núcleo. Por supuesto, se desprecia la interacción gravitatoria y lo único que se toma en cuenta es el potencial electrostático: es decir, la interacción debida a que el núcleo y el electrón tienen una carga eléctrica. Este tipo de potencial decae inversamente con la distancia. Es más fuerte cuanto más cerca están y depende de la carga eléctrica de ambos.

Resolver este modelo atómico nos conduce a un modelo que, como primera aproximación, nos sirve para entender la estructura atómica. De hecho, una manera habitual de proceder es mejorar este modelo añadiendo términos que cada vez añaden más información relativa al modelo: se va enriqueciendo y cada término lo acerca más a la realidad a costa de perder la posibilidad de resolverlo analíticamente (es decir, sin hacer uso de ordenador). Por ejemplo, suponer que los electrones interactúan entre sí, tener en cuenta que el espín también interacciona y se acopla (estructura fina) suponer que los núcleos tienen una forma y no son puntuales (estructura hiperfina). Si nuestro modelo es bueno, cada término que añadamos será en orden de magnitud menos importante que los anteriores o, por lo menos, de menor orden de magnitud que la aportación principal que es el modelo hidrogenoide. Así lo que haremos serán correcciones al modelo de capas que se irán ajustando cada vez más al espectro atómico que observamos.

Al final lo que tendremos será una función de onda (una expresión matemática que representa el estado cuántico de los electrones) y un valor de energía asociado a esta. Cuando hay más de un estado para un mismo valor de energía se dice que dicho estado se encuentra degenerado. El estado más bajo de energía posible en un átomo se conoce como estado fundamental y los otros estados con energía mayor se conocen como estados excitados.Los electrones, debido a que cumplen el Principio de Exclusión de Pauli no pueden compartir un mismo estado cuántico. Así, desde el estado fundamental se irán llenando según los distintos estados disponibles, uno a uno hasta el número total de electrones que admite cada estado en concreto. Esta representación se conoce como configuración electrónica.

Así, en el átomo hidrogenoide el nivel más bajo de energía al que puede ir un electrón se llama "". El número "1″ se conoce como número cuántico principal y nos dice el número de capa en el que se encuentra. La "s" corresponde al número cuántico de momento angular. Corresponde al valor "0″ pero por razones históricas los espectroscopistas llamaron a los valores l = 0 s (de sharp), l=1 p (de principal), l=2 d (de diffuse), l=3 (f de fundamental) y a partir de l=4 se siguen las reglas del alfabeto por la forma que tenían las líneas del espectro. En total hacen falta 4 números para indicar el estado completo de un electrón. El primer electrón irá al el segundo irá al . No comparten el mismo estado porque aún pueden variar los otros dos números cuánticos de los que no he hablado: los que involucran al espín del electrón. Posteriormente viene la ocupación de la capa "" ya que el "" tiene mayor energía. En un estado de tipo "" caben hasta 6 electrones. Esto es debido a que tienen distinta orientación espacial, como vemos en la siguiente imagen:
       
La zona amarilla tiene un 99% de probabilidades de albergar un electrón. La energía del átomo hidrogenoide depende únicamente del número cuántico principal. Esto nos indica que, en un átomo de hidrógeno es esperable que el estado "" y el estado "" tengan la misma energía.
En los años 50 se descubrió que no era así. De hecho, la energía del estado "" es ligeramente mayor que la del "" aunque para poder verlo hay que irse hasta la sexta cifra significativa ya que la corrección es pequeñísima. Y aunque es muy pequeña, se vió y se midió y aunque parezca un hallazgo inocente lo cierto es que puso en jaque a toda la física atómica en aquel momento. Este efecto se conoce como efecto Lamb o Lamb shift. Este efecto consiguió que hubiera que replantearse conceptos fundamentales y llevó a fundar la electrodinámica cuántica. Aparecieron las fluctuaciones cuánticas del vacío. Ocurre con mucha frecuencia que las cosas más insignificantes provocan auténticas revoluciones, y esta fue una de las más grandes de la física del siglo XX. En la primera parte del siglo XX la mecánica cuántica hablaba sobre partículas, estados, energías, y de pronto se vió la necesidad de que algo tan abstracto como un "campo" fuese modelado desde el punto de vista cuántico. La electrodinámica cuántica es la teoría cuántica del campo electromagnético.

Siempre que se desarrolla una teoría se exije respaldo experimental. La teoría hace predicciones que deben contrastarse con la realidad. Y esta teoría es hasta ahora la teoría física más precisa jamás desarrollada. Ha sido capaz de predecir magnitudes con 11 cifras de concordancia con la realidad. Y pueden parecer pocas pero, por comparar, únicamente conocemos 4 cifras para el valor de "G" la constante de gravitación universal, la más antigua conocida. Obviamente, también el valor del "salto Lamb" medido concuerda muy bien con la predicción teórica. Por supuesto, su formulación no estuvo exenta de problemas como la renormalización. Ocurría que al aplicar teoría de perturbaciones los términos que aparecían se hacían cada vez más grandes en lugar de hacerse cada vez más pequeños. Esto obligó a rehacer los cálculos o, quizás, mirarlos desde otro punto de vista más adecuado.
Publicado por:
Acuña Rey Andres Aduardo
C.R.F
Paginas de Referencia:

Most Efficient Quantum Memory for Light Developed

An Australian National University-led team has developed the most efficient quantum memory for light in the world, taking us closer to a future of super-fast computers and communication secured by the laws of physics.The team at the ANU Research School of Physics and Engineering used a technique they pioneered to stop and control light from a laser, manipulating electrons in a crystal cooled to a chilly -270 degrees Celcius. The unprecedented efficiency and accuracy of the system allows the delicate quantum nature of the light to be stored, manipulated, and recalled.
"Light entering the crystal is slowed all the way to a stop, where it remains until we let it go again," explains lead researcher Morgan Hedges. "When we do let it go, we get out essentially everything that went in as a three-dimensional hologram, accurate right down to the last photon."Because of the inherent uncertainty in quantum mechanics, some of the information in this light will be lost the moment it is measured, making it a read-once hologram. Quantum mechanics guarantees this information can only be read once, making it perfect for secure communication."The same efficient and accurate qualities make the memory a leading prospect for quantum computing, which has the potential to be many times faster and more powerful than contemporary computing.In addition, the researchers say the light storage will allow tests of fundamental physics, such as how the bizarre phenomenon of quantum entanglement interacts with of the theory of relativity."We could entangle the quantum state of two memories, that is, two crystals," says team leader Dr Matthew Sellars. "According to quantum mechanics, reading out one memory will instantly alter what is stored in the other, no matter how large the distance between them. According to relativity, the way time passes for one memory is affected by how it moves. With a good quantum memory, an experiment to measure how these fundamental effects interact could be as simple as putting one crystal in the back of my car and going for a drive."Dr Sellars' team has previously performed an experiment that 'stopped' light in a crystal for over a second, more than 1,000 times longer than was previously possible. He said that the team is now bringing together systems that combine the high efficiency with storage times of hours.The research team includes Dr Jevon Longdell from the University of Otago and Dr Yongmin Li from Shanxi University. The findings are published in Nature.

Light passes through the crystal in the quantum memory experiment.
        

Quantum Insights Could Lead To Better DetectorsScienceDaily
A bizarre but well-established aspect of quantum physics could open up a new era of electronic detectors and imaging systems that would be far more efficient than any now in existence, according to new insights by an MIT leader in the field.

Entangled photons.
         

MIT Professor of Mechanical Engineering Seth Lloyd has found that a peculiar quantum-physics property called entanglement can be harnessed to make detectors--similar in principle to radar systems used to track airplanes in flight or ships at sea--that are as much as a million times more efficient than existing systems. In addition, beams of entangled light could be swept across a scene to reconstruct a detailed image, with a similar improvement in efficiency.

The new findings, being reported this week in the journal Science, are purely theoretical, but Lloyd says that laboratory experiments have already proven the feasibility of both the light sources and the detectors needed for such a quantum-based photodetection system, so he anticipates that within a year it should be possible to build a laboratory-scale system to demonstrate the new concept.

"It should be possible to have at least a proof-of-principle demonstration within six months to a year," Lloyd said.

For example, military applications could include improved night-vision systems, which send out beams of infrared light--invisible to the naked eye--to sweep across a scene, and then use an infrared detector to reconstruct an image from the light that is reflected back. A more efficient system, using the quantum-entanglement effect, would make it much more difficult for an adversary to detect the fact that such a system was being used, because there would be so much less infrared light needed to provide the illumination.Theoretically, such a system could be used to allow medical diagnostic systems such as CT scans to work with a vastly reduced X-ray output, thereby making them much safer for the patient, but such applications would be much further in the future. It could also someday be used for safer microscope imaging of living organisms.

Entanglement is a strange property that was deduced theoretically on the basis of the laws of quantum physics, and has been demonstrated over the last several years in a variety of laboratory experiments. Under certain circumstances, when an atom gives off two photons of light at the same time, the two are "entangled" even as they go off in different directions, so that anything that changes one of the photons simultaneously changes the other as well. This odd property makes it possible to perform seemingly impossible feats such as "quantum teleportation," in which all of the properties of one subatomic particle are recreated in a different particle some distance away. It has also been demonstrated as a way of producing seemingly foolproof encryption systems for data transmission. But explanations of exactly what underlies the entanglement phenomenon remain controversial.

Lloyd says that he cannot provide a simple, intuitive explanation for why the quantum illumination system described in this report actually works, but is certain that the theoretical calculations demonstrating it are correct. "It is as if the two entangled photons retain a memory of each other long after any such memory should have faded away," he said

Publicado por:
Acuña Rey Andres Eduardo
C.R.F

Paginas de Referencia:
http://www.sciencedaily.com/releases/2008/09/080912124754.htm

El Salto del MIcrocosmos al Macrocosmos

El problema de la estructura de la materia se habia solucionado con el descubrimiento de los mesones, formados por piones y muones en 1947. Para avanzar en el complejo mundo cuántico se hacían necesarios aceleradores más potentes que los ciclotrones de Lawrence. En 1945 MacMillan en Estados Unidos y Veksler en la Unión Soviética propusieron el principio de estabilidad de fase para construir aceleradores más potentes, surgieron así el sincrociclotrón y el sincrotón, además se construyeron aceleradores lineales merced a los trabajos de Álvarez, Hansen y Panfosky capaces de alcanzar los 900 MeV como el de Stanford. En 1943 Oliphant proponía un nuevo tipo de acelerador en forma de anillo, en el que la aceleración se lograría por la variación simultánea del campo magnético y la frecuencia de la tensión aplicada, principio que fue desarrollado en 1952 por Courant, Livingston, Snyder y Cristofilos que desembocó en la construcción del sincrotón en Ginebra del CERN en 1959, que alcanzaba los 28,5 GeV. Entre tanto, la radiación cósmica vino en ayuda de los físicos. De esta forma, fueron identificados los piones y los muones mediante la interpretación de las trazas dejadas en placas fotográficas por los rayos cósmicos.

Microcosmos y macrocosmos aparecían ligados entre sí. La estructura de la materia y del Universo debían de mantener una fuerte interrelación. De alguna manera la relatividad y la mecánica cuántica deberían estar relacionadas. De hecho, esa ligadura ya se había puesto de manifiesto con el principio de exclusión de Pauli y la ecuación de Dirac, desarrollada en 1928, que le llevó a postular la existencia del positrón, dando entrada al concepto de antimateria, esto es, la existencia de pares de partículas iguales con carga distinta. En 1950 en Berkeley se identificaba un nuevo pión, el pión neutro. A partir de entonces han ido apareciendo nuevas partículas, como los mesones K y los hyperiones. El modelo propuesto por Yukawa para explicar el comportamiento de la interacción fuerte, responsable de la estabilidad del núcleo atómico, fue sustituida en los años setenta por la cromodinámica cuántica (QDC) debido a la creciente complejidad del mundo atómico con la aparición de los quarks. Las partículas que interaccionan fuertemente se denominan hadrones, que a su vez están integrados por dos familias de partículas los mesones y los bariones.

   
Las características y propiedades de los bariones han dado lugar al establecimiento de la ley de conservación del número bariónico, por la que el número de bariones y antibariones se conserva y explica la estabilidad del protón, que es un miembro de la familia de los bariones, y con ella de la estabilidad de la materia. Además de los hadrones, existen los leptones, constituidos por el electrón, el neutrino y los muones. A su vez los hadrones están formados por quarks, éstos fueron propuestos en 1964 por Murray Gell-Mann y George Zweig. Los mesones están constituidos por un par quark-antiquark, mientras los bariones tienen tres quarks. Según la cromodinámica cuántica, los quarks nunca pueden aparecer bajo la forma de partículas libres. En los años setenta ha sido posible determinar las cargas de los quarks en el interior del protón, gracias al SLAC (Stanford Linear Accelerator Center). Junto con los quarks, en el interior de los hadrones se encuentran los gluones, responsables de la unión de los nucleones, observados en 1979 por el acelerador PETRA de Hamburgo. Como consecuencia del descubrimiento en la radiación cósmica de una nueva partícula neutra, llamada hyperión lambda, y del mesón K a ella asociado se descubrió un nuevo número cuántico, al que se denominó extrañeza, que aparece asociado a un nuevo quark, el quark s. La desintegración de las partículas con extrañeza responden, como la desintegración beta, a la interacción débil. La combinación de los quarks d, u y s explican la existencia de los hyperiones epsilon, descubiertos a principios de los años cincuenta, los hyperiones forman la familia de las partículas delta.

En 1964 se descubrió una nueva partícula con extrañeza, la omega- predicha con anterioridad por la teoría de Gell-mann y Ne´eman, con ella podían interpretarse satisfactoriamente los sistemas de hadrones constituidos por los quarks d, u y s. Sin embargo, en la segunda mitad de los años sesenta los físicos predijeron una nueva interacción, la interacción de la corriente neutra que fue observada en el CERN en 1973, asociada a un nuevo quark: el quark c, predicho en 1970 por Sheldon Glashow. En 1974 se descubrió en el laboratorio Brookhaven por Sam Ting y en el SLAC por Burton Richter una nueva partícula, la psi, que Richard Feynman y Harald Fritzsch atribuyeron a un nuevo número cuántico al que denominaron encanto. En 1979 se encontraron evidencias de la existencia del número cuántico encanto en los bariones, que se añadían así a los mesones encantados. En 1970 Gell-Mann y Fritzsch postularon la existencia de un nuevo número cuántico al que llamaron color, para explicar por qué el estado de la partícula delta++ es antisimétrico como exige el principio de exclusión de Pauli. De esta forma, los quarks podían ser rojos, verdes y azules -los colores son exclusivamente denominaciones-, con el número cuántico color se desarrolló la cromodinámica cuántica (CDQ), que ha venido ha completar a la electrodinámica cuántica (QED) que se ocupa de la interacción electromagnética a escala cuántica, para explicar la estructura y comportamiento de la materia.

       
La física de las partículas elementales ha permitido avanzar en el conocimiento de la estructura del Universo. De esta forma, relatividad general y física cuántica se revelan como dos teorías fundamentales para comprender el macrocosmos. A razón de ello estriba en el hecho de que las partículas elementales requieren altísimas energías para su producción, capaces de romper las fuerzas de ligadura del núcleo atómico. Estos procesos sólo se producen en el interior de las estrellas o en la explosión de las mismas en sus variadas formas, en función de su masa: supernovas y gigantes rojas, que dan lugar a estrellas de neutrones, agujeros negros, enanas blancas y enanas negras; o en las primeras etapas del big bang. El big bang se considera la singularidad inicial de la que parte nuestro actual Universo. La teoría del Big bang forma parte del modelo estándar surgido de la relatividad general, que además se ajusta con bastante precisión a los resultados de la física cuántica en el ámbito de las partículas elementales. En 1948, George Gamow predijo que debería existir un rastro en el Universo de la explosión inicial o big bang, dicho rastro fue observado en 1965 por Penzias y Wilson, era la radiación de fondo de cuerpo negro, radiación térmica de 2,7 grados kelvin residuo del big bang.

En los instantes posteriores al big bang el Universo estaba extremadamente caliente y condensado, en aquellos momentos las leyes de la física no operaban y las partículas elementales de la materia no eran viables. Steven Weinberg ha descrito lo que sucedió en el lapso de tiempo comprendido entre una diezmilésima de segundo después del big bang y los tres primeros minutos del Universo actual, lapso en el que el Universo inicio su expansión y enfriamiento haciendo posible las fuerzas de ligadura que regulan las leyes de la física. Una hora y cuarto después del big bang la temperatura ha descendido a algo menos de una décima parte, unos 300 millones de grados kelvin, en ese momento las partículas elementales se encuentran ligadas en núcleos de helio o en protones libres, además de la existencia de electrones. Alrededor de 700.000 años después del big bang la expansión y el enfriamiento del Universo permitirán la formación de núcleos y átomos estables, el desacoplamiento de la materia y la radiación permitirá el inicio del proceso de formación de galaxias y estrellas.

   
El modelo actual del Universo introduce la flecha del tiempo, que en el ámbito de la física había sido introducida por Ludwig Boltzmann con la segunda ley de la termodinámica en el último tercio del siglo XIX. La segunda ley de la termodinámica afirma que la entropía de un sistema aislado aumenta con el tiempo. En términos generales, la entropía de un sistema es una medida de su desorden manifiesto.

La segunda ley de la termodinámica introduce la asimetría temporal, o flecha del tiempo. El Universo es por definición un sistema aislado, además el modelo actual del Universo dinámico y en expansión se ajusta a la existencia de una flecha del tiempo, cuya dirección discurriría desde el big bang hacia el futuro. El problema se plantea a la hora de hacer compatible la entropía del Universo, regida por la segunda ley de la termodinámica, y las ecuaciones de la relatividad general y de la mecánica cuántica que son simétricas en el tiempo especialmente las primeras, en tanto en cuanto la reducción del paquete de ondas dentro del formalismo mecánico-cuántico es asimétrica temporalmente. En la actualidad se piensa que la solución a este problema vendrá de la mano de la construcción una teoría de la gravitación cuántica, una teoría cuántica de la estructura del espacio-tiempo, para lo que el estudio de los agujeros negros se revela como el camino más factible, los trabajos de Roger Penrose y Stephen Hawking van en esta dirección.

  

Reflexion:http://www.youtube.com/watch?v=qgJrKZp1nck

Publicado por:
Acuña Rey Andres Eduardo
C.R.F

Paginas de Referencia:

Del Atomo Al Microchip

Una de las derivaciones del proyecto Manhattan fue el impulso que recibió la electrónica, sentando las bases prácticas para el desarrollo de los computadores. La participación de John von Neumann en el proyecto Manhattan fue a este respecto decisiva. Las necesidades de cálculo requeridas para el desarrollo del proyecto nuclear exigían nuevas innovaciones. Von Neumann conoció por Hermann Goldstine el proyecto de la Moore School of Electronics Engineering de la Universidad de Pennsylvania, embarcada en la construcción del computador electrónico ENIAC (Electronic Numerical Integrator And Computer) para los Ballistic Research Laboratories, que contaba con 18.000 válvulas. Von Neumann se incorporó al proyecto en el ámbito de la organización lógica. Al finalizar la guerra, Von Neumann se dedicó al desarrollo de máquinas más potentes, que culminaron con la construcción en Princeton de la JOHNNIAC que entró en funcionamiento en 1952. Era el comienzo de la era de los computadores. El desarrollo de la física del estado sólido en el campo de los semiconductores contribuyó decisivamente a ello. En 1947 el descubrimiento del transistor en los Laboratorios Bell por Brattain, Bardeen y Shockey permitió sustituir las viejas y aparatosas válvulas de vacío por los transistores, que redujeron las dimensiones e incrementaron las velocidades de cálculo de los computadores electrónicos.
         
Sin embargo, los antecedentes de los computadores se remontan más atrás en el tiempo. En 1930, Vannevar Bush desarrollo el analizador diferencial, base sobre la que se desarrollaron los computadores analógicos. El siguiente paso se debe a Howard Aiken, creador del Automatic Sequence Controlled Calculator, más conocido como Harvard Mark I, iniciado en 1939 y que entró en funcionamiento en 1944, que podía controlar toda la secuencia de cálculos, lectura de datos e instrucciones en un punto e impresionar sus resultados. Von Neumann y Goldstine avanzaron en el diseño lógico de los computadores, resolviendo los problemas asociados al almacenamiento de datos y programas en una memoria en común, proponiendo el sistema numérico binario, que se aplicó por primera vez en 1949 en el EDSAC de la Universidad de Cambridge, base sobre la que se asientan los computadores desde entonces. Antes habían contribuido a la construcción ENIAC, primer computador electrónico digital, abriendo paso a la segunda generación de computadores. Las ideas de von Neumann encontraron su plasmación más acabada en Princeton, el primer prototipo fue el IAS, o máquina de von Neumann, a partir de la que se construyeron la AVIDAC, la ORDVAC, la ORACLE, la SILLIAC, la ILLIAC, la MANIAC o la JOHNNIAC antes mencionada.
   
Sobre el modelo estándar de la IAS, la IBM introdujó el sistema de tarjetas perforadas que permitió desarrollar la IBM-701 en 1953. Un año más tarde aparecía la IBM-650 y en 1959 la IBM-1401. En esta época Jack Kilby de TI y Robert Noyce de Fairchild Semiconductor crearon el primer circuito integrado, conjunto de transistores y resistencias interconectados, nacía así el chip, que permitiría dar un salto de gigante en la construcción de computadoras y, en general, en la microelectrónica. A principios de los años sesenta un chip incorporaba unos cuantos transistores microminiaturizados, a finales del decenio de los ochenta un microchip incorpora millones de transistores. En abril de 1964 IBM desarrollaba el System/360, primera familia de computadores compatibles, y en 1981 creaba la primera computadora personal. En abril de 1976 Steve Wozniak y Steve Jobs fundaban la Apple Computer, que fabricaría la gama de computadores personales competidora con el sistema IBM, los Macintosh. En 1987, IBM lanzó al mercado el IBM PS/2, que ha reemplazado su anterior línea de computadoras personales.
El avance en el campo de los ordenadores ha exigido combinar diferentes disciplinas desde la lógica formal a la física cuántica, pasando por la física del estado sólido, la cibernética, la teoría de la información, la ciencia de sistemas y la teoría de sistemas. Dos ramas han sido precisas para ello: el hadware, o soporte material de los computadores, esto es la estructura de las máquinas, donde la física del estado sólido ha sido transcendental al permitir desarrollar los transistores y, posteriormente, los microchips, mediante los avances registrados en el campo de la semiconductividad y más recientemente de la superconductividad, en los que la física cuántica es fundamental, logrando máquinas infinitamente más potentes y reducidas; y el software, o ciencia de los lenguajes de programación, donde las matemáticas, la lógica formal, la teoría de la información y la teoría de sistemas han desempeñado un papel esencial, dando lugar a nuevas aplicaciones fruto del avance de la programación computacional, en este campo el concepto de algoritmo es imprescindible.
           
Los trabajos del británico Alan M. Turing en 1936, Emil Post en 1943 y Markov en 1947 han sido básicos en el desarrollo de la teoría algorítmica, cuyos antecedentes inmediatos se sitúan en el cálculo lambda de Alonzo Church y las funciones recursivas generales de Gödel. La máquina universal de Turing, es un sistema matemático diseñado para manejar el problema general del cálculo no un objeto, de manera que para un argumento dado el valor de la función puede encontrarse utilizando sólo reglas preasignadas, aplicadas por la computadora y construidas previamente en su estructura. Su importancia reside en el hecho de que una máquina universal de Turing puede en principio ejecutar todo tipo de cálculo que sea realizable, Churc señaló en 1936 que es el mecanismo más general posible para la solución de un problema resoluble. Shannon ha reducido el número de estados internos de la máquina de Turing a sólo dos simplificando considerablemente el diseño de una máquina de Turing.
              
Von Neumann ha extendido el principio de la máquina universal de Turing a los procesos biológicos regidos por los mecanismos de replicación del DNA. Lo que ha llevado a los defensores de la Inteligencia artificial fuerte a pensar en la posibilidad de construir máquinas inteligentes, abriendo un nuevo campo en el que se entrelazan la física y química cuánticas con la bioquímica del cerebro y la cibernética. En la actualidad los computadores, tanto en serie como en paralelo, se basan en los principios de la máquina universal de Turing. Sin embargo, el propio Turing ha reconocido posteriormente que no puede existir un algoritmo general capaz de decidir sobre todas las cuestiones matemáticas. A ello ha contribuido decisivamente el teorema de incompletud de Gödel, al demostrar que el programa de David Hilbert era irrealizable, en tanto en cuanto cualquiera de los sistemas de matemáticas formales de axiomas y reglas de inferencia debe contener algunos enunciados que no son demostrables ni indemostrables con los medios permitidos dentro del sistema.
Publicado por:
Acuña Rey Andres Eduardo
C.R.F
Paginas de Referencia:

La Fisica de Altas Energias

El desarrollo de la teoría cuántica, vinculada a los problemas relacionados con la estructura del átomo, se realizó sobre la base de la existencia de dos componentes: el protón y el electrón. El modelo atómico de Rutherford, reformulado en 1913 por Bohr se basaba en este supuesto. De hecho el desarrollo de la mecánica cuántica se realizó sobre la base del comportamiento del electrón. Aunque ya en 1920 Rutherford postuló la existencia del neutrón, no fue hasta 1932 cuando este fue descubierto por James Chadwick en el Cavendish. Un año antes, en 1931 Paul Dirac había postulado la existencia de una nueva partícula elemental: el positrón, con la misma masa que el electrón pero con carga eléctrica positiva, cuya existencia fue descubierta en la cámara de niebla por Carl Anderson algunos meses después. La estructura del átomo comenzaba a complejizarse. De hecho, en 1929 Wolfgang Pauli predijo la existencia de una nueva partícula elemental: el neutrino, con el fin de explicar el equilibrio energético de la desintegración beta del núcleo atómico. En 1935, Hideki Yukawa postuló la existencia de los mesones, que en 1947 se comprobó que eran de dos tipos: el pión y el muón.
                 
La física de las partículas elementales comenzaba su andadura de la mano de la mecánica cuántica. Teoría fundamental de la estructura de la materia. Para ello fue preciso el desarrollo de la física de altas energías, debido a la necesidad de romper las fuerzas de ligadura del núcleo atómico. En su primera etapa, el análisis de la estructura atómica se había realizado sobre la base de la radiación alfa. Para avanzar en el conocimiento de la estructura del núcleo atómico era necesario conseguir partículas alfa más energéticas, en 1932 John Cockcroft y Ernest Walton lograron, mediante un multiplicador voltaico, la desintegración artificial de átomos de litio en dos partículas alfa. Un paso más en esta dirección Van de Graaff diseñó un generador electrostático para acelerar partículas que alcanzaba los 80 kV, en 1935 alcanzaban los cinco millones de voltios (5 MV).
              
El salto más significativo se produjo de la mano de Ernest Orlando Lawrence, que sobre la base de los trabajos de Rolf Wideröe, desarrolló el ciclotrón. Se fundamentaba en una estructura circular en la que las partículas cargadas entraban en un campo eléctrico alterno logrando su aceleración por la diferencia de potencial. Lawrence aplicó al modelo de Wideröe la acción de campos magnéticos, que lograban un incremento sustancial de la aceleración de las partículas. En 1932 Lawrence lograba poner en funcionamiento el primer ciclotrón con la colaboración de M. Stanley Livingston en Berkeley. Paralelamente, en la Universidad de Columbia (Nueva York) Harold Urey y su equipo descubrían un isótopo del hidrógeno: el deuterio, cuyo poder desintegrador era diez veces más potente que los protones. En 1936 con un ciclotrón más potente se logró medir el momento magnético del neutrón produciéndose además el primer elemento artificial: el tecnecio. El ciclotrón posibilitó la creación de isótopos radiactivos que pronto revelaron importantes aplicaciones, entre otras en el campo de la medicina para el diagnóstico y tratamiento del cáncer.
                  
En 1938, Otto Hahn junto con su colaborador Fritz Strassmann observo con sorpresa la producción de bario como consecuencia del bombardeo con neutrones del uranio. Se encontraban frente a la primera reacción de fisión nuclear conocida. El 6 de enero de 1939 publicaban sorprendidos estos resultados. Lisa Meitner, antigua colaboradora de Hahn y exiliada en Estocolmo por su origen judío, fue la primera en interpretar correctamente el alcance del descubrimiento de Hahn junto con su sobrino Otto R. Frisch. La aplicación de la fórmula einsteiniana E=mc2 a la fisión del uranio revelaba dicho proceso como una fuente inagotable de energía. Las bases de la bomba atómica estaban puestas. La proximidad de la Segunda Guerra Mundial aceleró el proceso. Frisch comunicó los cálculos a Niels Bohr en Copenhague antes de que partiera a Estados Unidos, para dar unas conferencias sobre teoría cuántica en Princeton. El 16 de enero de 1939, Bohr y su colaborador Léon Rosenfeld se encontraron en Nueva York con John Wheeler y Enrico Fermi, a los que comunicaron el hallazgo de Hahn y los resultados de Meitner y Frisch. Inmediatamente los físicos en Norteamérica comenzaron a explorar el nuevo horizonte de la posibilidad de provocar reacciones en cadena. Para ello era necesario que en la fisión del uranio se produjeran más de un neutrón. Joliot en París calculó un valor medio de 3,5 neutrones, mientras en Columbia Fermi contabilizaba dos neutrones. La reacción en cadena era pues una realidad. Algo que había predicho en 1934 Leo Szilard a raíz del descubrimiento de la radiactividad artificial por Irène Curie y Frédéric Joliot.
                      
Szilard consciente del peligro que entrañaba la bomba atómica en manos de la Alemania nazi se dirigió a Albert Einstein para que alertara al presidente de los estados Unidos, Franklint Delano Roosevelt. Es la famosa carta de Einstein del 2 de agosto de 1939: "Trabajos recientes de E. Fermi y L. Szilard,... me hacen esperar que el elemento uranio pueda convertirse en una nueva e importante fuente de energía en el futuro inmediato... En el curso de los cuatro últimos meses se ha hecho probable -... - que pueda ser posible establecer una reacción nuclear en cadena en una gran masa de uranio... Este nuevo fenómeno conduciría también a la construcción de bombas y es concebible -...- que de esta manera se puedan construir bombas de un nuevo tipo extremadamente poderosas... En vista de esta situación, acaso pueda Vd. considerar aconsejable que exista algún contacto permanente entre la administración y el grupo de físicos que trabajan en reacciones en cadena en Estados Unidos".
En octubre de 1939 era creado un comité presidencial presidido por Lyman J. Briggs, era el primer paso del llamado proyecto Manhattan que desembocaría en la fabricación de las primeras bombas atómicas. A principios de 1941, en plena guerra mundial, Ernest Lawrence se involucraba directamente en el proyecto. Desde que tuvo conocimiento de los trabajos de Hahn y Meitner y Frisch había embarcado a su equipo de Berkeley a investigar el proceso de fisión del uranio en los ciclotrones. En la primavera de 1940, Edwin McMillan y Philip Abelson descubrieron un nuevo elemento producido por la fisión del uranio en el ciclotrón: el neptunio. En febrero de 1941, Glenn T. Seaborg identificaba un nuevo elemento de la desintegración del neptunio: el plutonio, Halban y Kowarski en Cambridge postularon que este nuevo elemento podía ser fisionable con neutrones lentos. De esta forma, se optimizaba la utilización del uranio, puesto que sólo el escasísimo isótopo del uranio U-235 era capaz de generar reacciones en cadena, mientras que el más frecuente U-238 no lo era, a cambio este podría producir plutonio. Nacía así la posibilidad de la bomba de plutonio, que fue la utilizada en Nagasaki.
            
El siguiente paso lo dieron Otto Frisch y Rudolf Peierls en Gran Bretaña al calcular aproximadamente la masa crítica de uranio necesaria para desencadenar una reacción en cadena autosostenida. Los cálculos les llevaron a considerar esa masa crítica en torno al medio kilo, cuya reacción en cadena liberaría una energía equivalente a miles de toneladas de TNT. La bomba atómica era ya una posibilidad real. En noviembre de 1942 se inauguraba en Nuevo México el laboratorio de Los Alamos, bajo la dirección de Robert Oppenheimer, donde se realizaron las pruebas de la primera bomba atómica. Al amanecer del 16 de julio de 1945 estallaba en el desierto de Nuevo México la primera bomba atómica. El 6 de agosto una bomba atómica de uranio, con una potencia de 20.000 toneladas de TNT y unos 4.500 kilos de peso, arrasaba Hiroshima. El 9 de agosto de 1945 una bomba de plutonio arrasaba Nagasaki. Nacía así la era nuclear.
Publicado por:
Acuña Rey Andres Eduardo
C.R.F
Paginas de Referencia: