domingo, 25 de julio de 2010

LA MECANICA CUANTICA NOS LLEVA A CREER NUESTRA REALIDAD

La física moderna dice "tú si puedes"
 Durante décadas, los poderes de la mente han sido cuestiones asociadas al mundo "esotérico", cosas de locos. La mayor parte de la gente desconoce que la mecánica cuántica, es decir, el modelo teórico y práctico dominante hoy día en el ámbito de la ciencia, ha demostrado la interrelación entre el pensamiento y la realidad. Que cuando creemos que podemos, en realidad, podemos. Sorprendentes experimentos en los laboratorios más adelantados del mundo corroboran esta creencia.  El estudio sobre el cerebro ha avanzado mucho en las últimas décadas mediante las "tomografías". Conectando electrodos a este órgano, se determina donde se produce cada una de las actividades de la mente. La fórmula es bien sencilla: se mide la actividad eléctrica mientras se produce una actividad mental, ya sea racional, como emocional, espiritual o sentimental y así se sabe a qué área corresponde esa facultad.  Estos experimentos en neurología han comprobado algo aparentemente descabellado: cuando vemos un determinado objeto aparece actividad en ciertas partes de nuestro cerebro... pero cuando se exhorta al sujeto a que cierre los ojos y lo imagine, la actividad cerebral es ¡idéntica! Entonces, si el cerebro refleja la misma actividad cuando "ve" que cuando "siente", llega la gran pregunta: ¿cuál es la Realidad? "La solución es que el cerebro no hace diferencias entre lo que ve y lo que imagina porque las mismas redes neuronales están implicadas; para el cerebro, es tan real lo que ve como lo que siente", afirma el bioquímico y doctor en medicina quiropráctica, Joe Dispenza en el libro "¿y tú qué sabes?". En otras palabras, que fabricamos nuestra realidad desde la forma en que procesamos nuestras experiencias, es decir, mediante nuestras emociones.   
La farmacia del cerebro   
En un pequeño órgano llamado hipotálamo se fabrican las respuestas emocionales. Allí, en nuestro cerebro, se encuentra la mayor farmacia que existe, donde se crean unas partículas llamadas "péptidos", pequeñas secuencias de aminoácidos que, combinadas, crean las neurohormonas o neuropéptidos. Ellas son las responsables de las emociones que sentimos diariamente. Según John Hagelin, profesor de física y director del Instituto para la ciencia, la tecnología y la política pública de la Universidad Maharishi, dedicado al desarrollo de teorías del campo unificado cuántico: "hay química para la rabia, para la felicidad, para el sufrimiento, la envidia..."  En el momento en que sentimos una determinada emoción, el hipotálamo descarga esos péptidos, liberándolos a través de la glándula pituitaria hasta la sangre, que conectará con las células que tienen esos receptores en el exterior. El cerebro actúa como una tormenta que descarga los pensamientos a través de la fisura sináptica. Nadie ha visto nunca un pensamiento, ni siquiera en los más avanzados laboratorios, pero lo que sí se ve es la tormenta eléctrica que provoca cada mentalismo, conectando las neuronas a través de las "fisuras sinápticas".  Cada célula tiene miles de receptores rodeando su superficie, como abriéndose a esas experiencias emocionales. La Dra. Candance Pert, poseedora de patentes sobre péptidos modificados, y profesora en la Universidad de Medicina de Georgetown, lo explica así: "Cada célula es un pequeño hogar de conciencia. Una entrada de un neuropéptido en una célula equivale a una descarga de bioquímicos que pueden llegar a modificar el núcleo de la célula".  Nuestro cerebro crea estos neuropéptidos y nuestras células son las que se acostumbran a "recibir" cada una de las emociones: ira, angustia, alegría, envidia, generosidad, pesimismo, optimismo... Al acostumbrarse a ellas, se crean hábitos de pensamiento. A través de los millones de terminaciones sinápticas, nuestro cerebro está continuamente recreándose; un pensamiento o emoción crea una nueva conexión, que se refuerza cuando pensamos o sentimos "algo" en repetidas ocasiones. Así es como una persona asocia una determinada situación con una emoción: una mala experiencia en un ascensor, como quedarse encerrado, puede hacer que el objeto "ascensor" se asocie al temor a quedarse encerrado. Si no se interrumpe esa asociación, nuestro cerebro podría relacionar ese pensamiento- objeto con esa emoción y reforzar esa conexión, conocida en el ámbito de la psicología como "fobia" o "miedo".  Todos los hábitos y adicciones operan con la misma mecánica. Un miedo (a no dormir, a hablar en público, a enamorarse) puede hacer que recurramos a una pastilla, una droga o un tipo de pensamiento nocivo. El objetivo inconsciente es "engañar" a nuestras células con otra emoción diferente, generalmente, algo que nos excite, "distrayéndonos" del miedo. De esta manera, cada vez que volvamos a esa situación, el miedo nos conectará, inevitablemente, con la "solución", es decir, con la adicción. Detrás de cada adicción (drogas, personas, bebida, juego, sexo, televisión) hay pues un miedo insertado en la memoria celular.  La buena noticia es que, en cuanto rompemos ese círculo vicioso, en cuanto quebramos esa conexión, el cerebro crea otro puente entre neuronas que es el "pasaje a la liberación". Porque, como ha demostrado el Instituto Tecnológico de Massachussets en sus investigaciones con lamas budistas en estado de meditación, nuestro cerebro está permanentemente rehaciéndose, incluso, en la ancianidad. Por ello, se puede desaprender y reaprender nuevas formas de vivir las emociones.
 Mente creadora  
 Los experimentos en el campo de las partículas elementales han llevado a los científicos a reconocer que la mente es capaz de crear. En palabras de Amit Goswani, profesor de física en la universidad de Oregón, el comportamiento de las micropartículas cambia dependiendo de lo que hace el observador: "cuando el observador mira, se comporta como una onda, cuando no lo hace, como una partícula". Ello quiere decir que las expectativas del observador influyen en la Realidad de los laboratorios... y cada uno de nosotros está compuesto de millones de átomos.  Traducido al ámbito de la vida diaria, esto nos llevaría a que nuestra Realidad es, hasta cierto punto, producto de nuestras propias expectativas. Si una partícula (la mínima parte de materia que nos compone) puede comportarse como materia o como onda... Nosotros podemos hacer lo mismo. La realidad molecular Los sorprendentes experimentos del científico japonés Masaru Emoto con las moléculas de agua han abierto una increíble puerta a la posibilidad de que nuestra mente sea capaz de crear la Realidad. "Armado" de un potente microscopio electrónico con una diminuta cámara, Emoto fotografió las moléculas procedentes de aguas contaminadas y de manantial. Las metió en una cámara frigorífica para que se helaran y así, consiguió fotografiarlas. Lo que encontró fue que las aguas puras creaban cristales de una belleza inconmensurable, mientras que las sucias, sólo provocaban caos. Más tarde, procedió a colocar palabras como "Amor" o "Te odio", encontrando un efecto similar: el amor provocaba formas moleculares bellas mientras que el odio generaba caos.   Por último, probó a colocar por un lado música clásica y música relajante, y por otro lado música thrash metal, con resultados similares. La explicación biológica a este fenómeno es que los átomos que componen las moléculas (en este caso, los dos pequeños de Hidrógeno y uno grande de Oxígeno) se pueden ordenar de diferentes maneras: armoniosa o caóticamente. Si tenemos en cuenta que el 80% de nuestro cuerpo es agua, entenderemos cómo nuestras emociones, nuestras palabras y hasta la música que escuchamos, influyen en que nuestra realidad sea más o menos armoniosa. Nuestra estructura interna está reaccionando a todos los estímulos exteriores, reorganizando los átomos de las moléculas. 
El valioso vacío atómico  
 Aunque ya los filósofos griegos especularon con su existencia, el átomo es una realidad científica desde principios de siglo XX. La física atómica dio paso a la teoría de la relatividad y de ahí, a la física cuántica. En las escuelas de todo el mundo se enseña hoy día que el átomo está compuesto de partículas de signo positivo (protones) y neutras (neutrones) en su núcleo y de signo negativo (electrones) girando a su alrededor. Su organización recuerda extraordinariamente a la del Universo, unos electrones (planetas) girando alrededor de un sol o núcleo (protones y neutrones). Lo que la mayoría desconocíamos es que la materia de la que se componen los átomos es prácticamente inexistente. En palabras de William Tyler, profesor emérito de ingeniería y ciencia de la materia en la universidad de Stanford, "la materia no es estática y predecible. Dentro de los átomos y moléculas, las partículas ocupan un lugar insignificante: el resto es vacío".  En otras palabras, que el átomo no es una realidad terminada sino mucho más maleable de lo que pensábamos. El físico Amit Goswani es rotundo: "Heinsenberg, el codescubridor de la mecánica cuántica, fue muy claro al respecto; los átomos no son cosas, son TENDENCIAS. Así que, en lugar de pensar en átomos como cosas, tienes que pensar en posibilidades, posibilidades de la consciencia. La física cuántica solo calcula posibilidades, así que la pregunta viene rápidamente a nuestras mentes, ¿quién elige de entre esas posibilidades para que se produzca mi experiencia actual? La respuesta de la física cuántica es rotunda: La conciencia está envuelta, el observador no puede ser ignorado". 
¿Qué realidad prefieres? 
El ya famoso experimento con la molécula de fullerano del doctor Anton Zeillinger, en la Universidad de Viena, testificó que los átomos de la molécula de fullerano (estructura atómica que tiene 60 átomos de carbón) eran capaces de pasar por dos agujeros simultáneamente. Este experimento "de ciencia ficción" se realiza hoy día con normalidad en laboratorios de todo el mundo con partículas que han llegado a ser fotografiadas. La realidad de la bilocación, es decir, que "algo" pueda estar en dos lugares al mismo tiempo, es algo ya de dominio público, al menos en el ámbito de la ciencia más innovadora. Jeffrey Satinover, ex presidente de la fundación Jung de la universidad de Harvard y autor de libros como "El cerebro cuántico" y "El ser vacío", lo explica así: "ahora mismo, puedes ver en numerosos laboratorios de Estados Unidos, objetos suficientemente grandes para el ojo humano, que están en dos lugares al mismo tiempo, e incluso se les puede sacar fotografías. Yo creo que mucha gente pensará que los científicos nos hemos vuelto locos, pero la realidad es así, y es algo que todavía no podemos explicar".  Quizás porque algunos piensen que la gente "de a pie" no va a comprender estos experimentos, los científicos todavía no han conseguido alertar a la población de las magníficas implicaciones que eso conlleva para nuestras vidas, aunque las teorías anteriores sí forman parte ya del dominio de la ciencia divulgativa.  Seguramente la teoría de los universos paralelos, origen de la de la "superposición cuántica", es la que ha conseguido llegar mejor al gran público. Lo que viene a decir es que la Realidad es un número "n" de ondas que conviven en el espacio-tiempo como posibilidades, hasta que UNA se convierte en Real: eso será lo que vivimos. Somos nosotros quienes nos ocupamos, con nuestras elecciones y, sobre todo, con nuestros pensamientos ("yo sí puedo", "yo no puedo") de encerrarnos en una realidad limitada y negativa o en la consecución de aquellas cosas que soñamos. En otras palabras, la física moderna nos dice que podemos alcanzar todo aquello que ansiamos (dentro de ese abanico de posibilidades- ondas, claro).  En realidad, los descubrimientos de la física cuántica vienen siendo experimentados por seres humanos desde hace milenios, concretamente, en el ámbito de la espiritualidad. Según el investigador de los manuscritos del Mar Muerto, Greg Braden, los antiguos esenios (la comunidad espiritual a la que, dicen, perteneció Jesucristo) tenían una manera de orar muy diferente a la actual. En su libro "El efecto Isaías: descodificando la perdida ciencia de la oración y la plegaria", Braden asegura que su manera de rezar era muy diferente a la que los cristianos adoptarían. En lugar de pedir a Dios "algo", los esenios visualizaban que aquello que pedían ya se había cumplido, una técnica calcada de la que hoy se utiliza en el deporte de alta competición, sin ir más lejos. Seguramente, muchos han visto en los campeonatos de atletismo cómo los saltadores de altura o pértiga realizan ejercicios de simulación del salto: interiormente se visualizan a sí mismos, ni más ni menos que realizando la proeza. Esta técnica procede del ámbito de la psicología deportiva, que ha desarrollado técnicas a su vez recogidas del acervo de las filosofías orientales. La moderna Programación Neurolingüística, usada en el ámbito de la publicidad, las relaciones públicas y de la empresa en general, coincide en recurrir al tiempo presente y a la afirmación como vehículo para la consecución de los logros. La palabra sería un paso más adelante en la creación de la Realidad, por lo que tenemos que tener cuidado con aquello que decimos pues, de alguna manera, estamos atrayendo esa realidad. 
La búsqueda científica del alma 
En las últimas décadas, los experimentos en el campo de la neurología han ido encaminados a encontrar donde reside la conciencia. Fred Alan Wolf, doctor en física por la universidad UCLA, filósofo, conferenciante y escritor lo explica así en "¿Y tú qué sabes?": "Los científicos hemos tratado de encontrar al observador, de encontrar la respuesta a quién está al mando del cerebro: sí, hemos ido a cada uno de los escondrijos del cerebro a encontrar el observador y no lo hemos hallado; no hemos encontrado a nadie dentro del cerebro, nadie en las regiones corticales del cerebro pero todos tenemos esa sensación de ser el observador". En palabras de este científico, las puertas para la existencia del alma están abiertas de par en par: "Sabemos lo que el observador hace pero no sabemos quién o qué cosa es el observador".  Hoy recuperadas por la física cuántica, muchas de estas afirmaciones eran conocidas en la Antigüedad, como en el caso del "Catecismo de la química superior", de Karl von Eckartshausen. 
 La mecánica de la erección 
La mejor metáfora del pensamiento creador es el miembro masculino. Una sola fantasía sexual, es decir, un pensamiento erótico, es capaz de producir una erección, con toda la variedad de glándulas endocrinas y hormonas que participan en ello. Nada hay fuera de la mente del hombre pero, sin embargo, se produce un torbellino hormonal que desemboca en un hecho físico palpable. En el lado femenino, también el poder del pensamiento asociado al erotismo se convierte a menudo en hechos físicos, demostrando la capacidad del pensamiento para crear situaciones placenteras... o adictivas. Los más firmes defensores del poder de la visualización llegan a proponer que se puede obtener a través de ella casi todo lo que deseamos. 
PUBLICADO POR :
ANDRES ACUÑA REY
C.R.F
PAGINAS DE REFERENCIA:

MECANICA CUANTICA Y CIENCIA FICCION

La paradoja EPR y la comunicación instantánea

Supongamos que una partícula, por algún motivo, se divide en dos. Este es un hecho bastante frecuente, hasta es posible que esta división de lugar a la creación de partículas de naturaleza diferente a la de la partícula madre. Por ejemplo, si un fotón posee la suficiente energía puede convertirse en un par electrón-positrón (a la inversa, el encuentro entre un electrón y un positrón produce la creación de un fotón, esto es lo que llaman aniquilación materia-antimateria en las películas). Digamos entonces que nuestra partícula es un fotón que viajaba alegremente por el espacio con una determinada función de onda y, ¡pum!, ¡desastre!, el feliz fotón desaparece y aparecen en su lugar y viajando en direcciones opuestas dos partículas. Esta clase de divisiones deben respetar ciertos principios de conservación, por ejemplo, la energía inicial del fotón debe ser, como mínimo, la suma de las energías (masas) de las partículas resultantes. Además, mencionamos que el fotón posee spin 0 y el electrón spin 1/2, para que la cosa tenga sentido, entonces, el nuevo positrón deberá tener spin -1/2 (claro, 1/2 + (-1/2) = 0). Existen algunas otras leyes de conservación más que no vienen al caso. Pero la cuestión importante es que cuando el fotón se divide las funciones de onda de las partículas que aparecen quedan, de algún modo, vinculadas.
No importa que el electrón y el positrón viajen en direcciones opuestas y se alejen millones de años luz, sus funciones de onda están relacionadas y eso significa que cualquier cosa que le ocurra al electrón afectará de algún modo (e instantáneamente) al positrón. Encontré un ejemplo, no real, pero bastante ilustrativo en uno de los links: supongamos que tenemos un partícula blanca y que esta partícula se divide en dos, una magenta y la otra verde (verde + magenta = blanco). Ambas partículas viajan alejándose entre sí durante muchos años. Cierto día alguien encuentra la partícula verde y decide "medir" su color. ¿Como mide el color?, sencillamente ilumina a la partícula con luz blanca y la observa. Llega a la conclusión de que es verde. Si además supiera que provenía de la división de una partícula blanca podría fácilmente concluir que debe existir otra partícula, en algún lugar, que es de color magenta. Hasta aquí ningún problema. Ahora bien, supongamos que este buen señor no dispone de una lámpara de luz blanca, por alguna extraña razón sólo posee una lámpara de luz roja. Al iluminar la partícula verde con luz roja, ¡ésta se ve amarilla! (verde + rojo = amarillo). Lo que predice la mecánica cuántica es que la otra partícula, donde quiera que esté e instantáneamente, se volverá azul (amarillo + azul = blanco). ¿Entiende lo que significa esto?. En primer lugar esto viola aparentemente la teoría de relatividad que afirma que la velocidad máxima a la que puede transmitirse cualquier información es la velocidad de la luz. ¿Como puede saber la segunda partícula que la primera ha sido medida a quizás, millones de años luz de distancia?. Esta es una de las incompatibilidades que mencionamos entre la cuántica y la relatividad y recibió el nombre de paradoja EPR por Einstein-Podolsky-Rosen, quienes la plantearon por primera vez. Existen ciertas teorías en física que cuestionan el llamado principio de separabilidad de hechos físicos, estas teorías pueden sonar un poco esotéricas. Lo que dicen es que, de algún modo, todos los puntos del universo están conectados entre sí. Cualquier cosa que hagamos puede afectar algún punto a millones de años luz. ¿Verdad que suena mágico?. Pero a la luz de la mecánica cuántica, ¿es realmente tan absurdo?.

¿Será éste el modo de crear un ansible?. El ansible es el "comunicador instantáneo" que aparece en tantos relatos de ciencia ficción. Digamos que dividimos una partícula (o un montón de ellas) en dos. Encontramos el modo de mantener a una de las partes confinada en un cierto recinto, digamos aquí, en la Tierra y la otra mitad la transportamos, sin alterarla de ningún modo al lugar que queramos (una nave espacial en viaje a las estrellas, otro planeta, lo que sea). En principio, cualquier cosa que hagamos a la parte quedó en tierra, producirá modificaciones instantáneas a la parte que se encuentra lejos. ¿Podríamos, mediante estas alteraciones, transmitir palabras e imágenes?. Leí un paper hace unos días donde se afirmaba que esto es imposible. No soy quien para disentir con un experto, pero... soñar no cuesta nada. ¿Lo imaginan?, podríamos mandar al diablo las frecuencias subespaciales y todas esas cosas exóticas.

El efecto túnel

Cuando era chico pasaba mucho tiempo arrojando una pelota contra la pared de mi casa y recibiendo el rebote. No sé porque lo hacía (no se me ocurre actividad mas aburrida, bueno, quizás haya una o dos...), supongo que el movimiento mecánico liberaba mi mente para pensar y soñar. Pero me fui de tema, seguramente usted también ha disfrutado jugando alguna vez frontón. También es posible que, dependiendo de lo alta que fuera la pared, en alguna oportunidad haya tenido que ir a buscar la pelota del otro lado (pidiendo al mismo tiempo disculpas a una señora que por alguna extraña razón se frotaba un ojo insistentemente mientras dirigía hacia usted una mirada de odio con el otro ojo). Pero, pregunto, ¿por que la pelota pasó del otro lado?. Fácil, me dice usted, porque por error le pegué demasiado fuerte y hacia arriba. Entiendo... ¿entonces no hay ningún otro modo en que la pelota puede pasar del otro lado?. Por supuesto que no, me contesta, ¡como si mi pelota pudiera atravesar la pared!. Ups, ha dado en el clavo. No se preocupe, siga jugando con confianza que su pelota no puede atravesar la pared, en realidad debería decir que la probabilidad de que atraviese la pared es muy pequeña. Analicemos lo que usted dijo. Afirmó que la pelota pasó del otro lado porque le había proporcionado la suficiente energía para hacerlo y que, sin esta energía extra no podría haber ocurrido... Un electrón viaja hacia una pared con poca energía y choca con ella, su función de onda se divide en dos, una parte (la mayor) corresponde al rebote del electrón con la pared y su redirección hacia atrás. La otra parte atraviesa la pared. Existe algo de la función del onda del otro lado de la pared, entonces, debe existir también probabilidad de que el electrón pase del otro lado.
 
No interprete mal esto, no se trata de que el electrón, por ser muy chiquito, se pueda colar entre los átomos de la pared y la pelota, por ser muy grande, no pueda hacerlo. Porque en el caso del electrón no hablamos de una pared real, sino de una barrera de potencial. A ver si nos entendemos, una barrera de potencial es una zona del espacio donde existe alguna fuerza que impide a los objetos salir de dicha zona. Dicho de otro modo, una pared de ladrillos es una barrera de potencial, pero una barrera de potencial no es necesariamente una pared de ladrillos. Nosotros vivimos encerrados por una barrera de potencial generada por el campo de gravedad de la Tierra. Si saltamos, volvemos a caer (rebotamos con la barrera), es necesaria una gran energía para atravesar la barrera (la que tendría un cohete por ejemplo). Resulta que es posible que una partícula subatómica atraviese una barrera de potencial aún cuando no tenga la energía necesaria para hacerlo. Esto se ha observado muchas veces. Se han detectado, por ejemplo, partículas de baja energía que escapaban de núcleos atómicos desde donde debería haber sido imposible que salieran. En el caso de la pelota la longitud de onda es tan pequeña (recuerde la partícula de polvo) que este efecto cuántico es de una probabilidad infinitamente baja, por eso no vemos pelotas atravesando paredes. ¿Que pasa con una partícula mientras está atravesando la barrera?. Literalmente, no debería tener existencia física. El efecto túnel se puede explicar por utilizando el principio de incertidumbre.

Debido a que la energía de la partícula tampoco puede ser fijada con absoluta exactitud, es posible que durante tiempos cortos no se cumplan las leyes de conservación. Es decir, la energía puede fluctuar tanto como para "saltar" la barrera. Un caso muy interesante de este efecto lo utiliza Stephen Hawking para justificar su teoría de emisión de partículas desde agujeros negros. Según Hawking, la energía del intenso campo de gravedad que rodea a uno de estos objetos puede sufrir fluctuaciones debido al principio de incertidumbre y alguna de estas fluctuaciones puede ser de suficiente magnitud para generar un par partícula-antipartícula; la partícula (un electrón, por ejemplo) escaparía del agujero negro (por verdadero efecto túnel) mientras que la otra caería dentro.

Otro caso mas cercano a la vida diaria es el brillo de las estrellas. Para que una estrella brille tiene que producirse una reacción nuclear llamada fusión. Esta es mas o menos complicada pero, en términos simples, se trata de que dos protones estén lo suficientemente juntos para formar un núcleo de helio. Los protones están cargados positivamente y las partículas de igual carga se repelen, entonces existe una barrera de potencial entre los dos. Cálculos clásicos afirman que es prácticamente imposible que dos protones estén lo suficientemente juntos para que esto ocurra, es decir, las estrellas no deberían existir. Sin embargo, existen. Los protones atraviesan la barrera, nuevamente, por efecto túnel. El efecto túnel dista mucho, hoy en día, de ser un tema de ciencia ficción. Hoy existe el microscopio de efecto túnel con el que se logran imágenes espectaculares de superficies con detalles a nivel atómico. Este instrumento consiste en una aguja que se mueve sobre la superficie a escanear, los electrones de la aguja escapan de ésta por efecto túnel cuando la superficie y la aguja están lo suficientemente cerca, pudiendo observarse de este modo detalles de la superficie imposibles hasta ahora.
PUBLICADO POR:
ACUÑA REY ANDRES EDUARDO
C.R.F
PAGINAS DE REFERENCIA:

La insuficiencia del análisis newtoniano


¿Donde está la insuficiencia del análisis newtoniano? En realidad se trata de una insuficiencia grande porque introduce simplificaciones que llevan a capturar un ámbito del movimiento muy reducido. Un tipo de movimiento del que incluso cabe dudar que sea físicamente real. El movimiento objetivado por Newton se corresponde precisamente con el tiempo que se objetiva en el nivel de la imaginación. Ni siquiera es, por tanto, un tiempo físico en sentido estricto, ni tampoco un tiempo objetivado por los sentidos externos. Se trata de un tiempo que ostenta ya un alto grado de formalidad pero no es tampoco el tiempo entendido en el nivel intelectual. Es el mismo tiempo, y también el espacio, que se corresponde con las formas a priori de Kant. La simplificación ciertamente permite la matematización: la formulación de hipótesis sobre la realidad física. Pero la objetivación del tiempo y del espacio empleado pertenece al conocimiento que la imaginación nos proporciona de ellos. Esto permite dar cuenta del éxito de la mecánica de Newton en relación con la experiencia ordinaria y, también, de la ruptura que más tarde se produce entre esa experiencia y la física.

Otra noción importantísima en la mecánica newtoniana es la de masa, que se relaciona estrechamente con la noción de fuerza por estar objetivadas en un mismo nivel. Polo señala que en un primer nivel de objetivación de la física newtoniana -en el que se llega a formular el principio de inercia- lo que es inercial es el mismo movimiento. En un segundo nivel -el de la 2ª ley de Newton: f=m.a- lo propiamente inercial es la masa, es decir, la masa expulsa fuera de si la aceleración y se hace posible de esta manera la cuantificación de la fuerza -la otra noción clave de la mecánica- y su relación con el tiempo. La masa es también la noción que sirve para vincular el tiempo con el espacio ya que en la ley de gravitación universal la masa se refiere a las distancias y también incluye la fuerza. La masa juega por tanto un papel clave en la unificación y puesta en funcionamiento de los distintos elementos producto del análisis newtoniano: espacio, tiempo, fuerza. Su constancia -su inercialidad- es la clave para conseguir la síntesis que permite que el sistema funcione. Es crucial también, para conseguir esa unificación, sacar a la masa del espacio dejándola así reducida a un punto. Es decir, la relación entre los cuerpos depende exclusivamente de sus masas y su distancia. Pero ahora los cuerpos no son extensos y lo que asume la consideración de la espacialidad o extensión es la pura distancia. La masa captura la materialidad de la realidad física, de los cuerpos físicos, pero de un modo peculiarmente reductivo: por una parte expulsa fuera de sí el movimiento y, por otro, también la extensión. La cuantificación de la experiencia se ha cobrado un precio muy alto.

Podríamos resumir muy brevemente las implicaciones de la objetivación o análisis de lo físico presente en Newton diciendo lo siguiente:

1. Hay una separación entre materia y movimiento conseguida a través de la noción de masa. La materia es inerte o inercial, un factor constante que permite unir espacio, tiempo y fuerza. Esto obligará después a adoptar un principio dinámico que será la energía. Pero la energía será también exterior a la materia que mantiene su constancia en cualquier caso.

2. Hay una separación entre espacio y tiempo. Por el espacio no pasa el tiempo y el tiempo fluye al margen del espacio que recibe una consideración, como el tiempo, absoluta. Se puede decir que hay una sustancialización del espacio y del tiempo. Esta mutua exclusión es la que permite su al espacio y al tiempo ser unificados con lo material, a través de la masa, de una manera matemáticamente sencilla. Pero se trata de una unificación a posteriori. Podríamos decir que se trata de una unificación que llega muy tarde respecto a la consideración estrictamente física del espacio y el tiempo.

Se ha conseguido una visión unificada y cerrada de la realidad física. La objetivación que se ha hecho de lo material y, en particular del movimiento, dio importantes frutos mientras lo experimentado se mantuvo en el ámbito en el que el peso cognoscitivo recae sobre la imaginación. Las fracturas fruto de este análisis son las que después pasarán factura a finales del siglo XIX y las que habrá que remediar mediante otras objetivaciones que superen las del análisis mecánico.Podríamos preguntarnos ahora ¿qué deja fuera de su consideración la objetivación del movimiento newtoniano? Para empezar, se olvida del movimiento vital. Aunque no discutamos esto ahora, es claro que la vida no se deja encerrar en el estrecho análisis ideado por Newton. Querer abordar el estudio de los seres vivos con un método que fuera heredero de los planteamientos mecánicos sería un grave obstáculo para la comprensión de la vida. Un planteamiento de este estilo sería el que llevara a considerar los seres vivos como estructuras que son sedes de intercambios de energía, o dicho de otra manera, sistemas de optimización y aprovechamiento energético, por ejemplo.

También se excluye completamente la consideración de la causa final aristotélica. En estricto sentido, el movimiento inercial de Newton no es causado. La objetivación de la masa junto con las otras simplificaciones introducen importantes reducciones en la comprensión de las causas: la finalidad, por ejemplo, queda completamente eliminada. La clave de esta supresión, como ya se ha señalado, está en la noción de masa y la reducción en la consideración de los tipos de movimientos que esta supresión introduce. Paradójicamente, el hecho de no dejar lugar para la consideración de la causa final conduce al determinismo que es característico en la física de Newton.La mecánica newtoniana modifica sustancialmente la comprensión de las causas descubiertas por Aristóteles. En el esquema aristotélico la eliminación de cualquiera de las causas altera notablemente la comprensión de las otras y de sus relaciones. El análisis efectuado por Newton impide entender la causa final como causa física del mundo. Dentro de la mecánica, si se mantiene la finalidad, es como algo externo al mundo. Es imposible entender, desde Newton, la causa final de una manera distinta a finalidad intencional, es decir, sin antropomorfizarla.

Junto con esta importante eliminación, la comprensión del resto de las causas también se ve modificada de una manera notable. En la tradición aristotélica las causas material y formal son consideradas como causas intrínsecas a la sustancia. La causa eficiente es, en cambio, extrínseca en los movimientos físicos transitivos. Otra de las alteraciones importantes introducida por el análisis newtoniano es hacer de la causa formal una causa extrínseca a la sustancia y, a la vez, entender la causa material y la eficiente como las causas intrínsecas.
PUBLICADO POR:
ACUÑA REY ANDRES EDUARDO
C.R.F
PAGINAS DE REFERENCIA:
http://www.unav.es/cryf/mecanica.html

¿Que Aplicacion Tiene la Mecanica Cuantica ?

La mecánica cuántica nos ha permitido explicar en "forma atómica" fenómenos que a primera vista no parecería admitir tal tipo de explicación. Un ejemplo es describir la transmisión del sonido en una red cristalina como el paso de un haz de partículas llamadas fonones. De esta manera se explican ahora, en forma análoga a la propagacióin de la luz, las propiedades de la conducción del calor en muchos materiales sólidos.Hay muchas más particularidades de la física cuántica que nos están ayudando a entender los fenómenos del mundo microscópico y no hay lugar aquí para siquiera enumerarlos. Sin embargo, es imposible no mencionar algo que esa teoría nos ha mostrado: toda observación altera lo observado.Para ejemplificar este hecho se suele referir que para observar la posición de un electrón es preciso hacer incidir sobre él por lo menos un fotón y que esta interacción alterará la posición de esta partícula. En las palabras de uno de los creadores de la física cuántica, el profesor Dirac, la fineza de nuestra capacidad para observar y la disminución de la peturbación ocasionada por esa acción tienen un límite, el cual es inherente a la naturaleza de las cosas. El descubrimiento de que toda observación altera lo observado ha tenido consecuencias muy importantes en la construcción de la ciencia actual pues, como bien sabemos, la misma está basada en la observación de la naturaleza.Entre los logros más difundidos de la teoría cuántica está la física atómica moderna, disciplina que explica las propiedades de las componentes básicas de los elementos químicos. Así sabemos, por ejemplo, que el helio es un gas cuyos átomos están formados por dos electrones unidos por una fuerza eléctrica producida por un núcleo muy pesado.
Las propiedades de este elemento pueden explicarse satisfactoriamente en términos de la teoría cuántica, tanto en forma cualitativa como cuantitativa. Esa misma teoría nos ha permitido construir la física nuclear, que explica cómo está formado el núcleo atómico y por qué tiene las propiedades que lo caracterizan. En el caso del helio esta disciplina también ha dilucidado por qué es tan pesado su núcleo y por qué su forma natural es estable. Sabemos asimismo que los protones y neutrones que componen los núcleos atómicos están a su vez compuestos por otras partículas y que sus propiedades pueden describirse en términos cuánticos. Todo lo que hemos aprendido del mundo microscópico está ahora escrito en el lenguaje de la física cuánticaEn el otro extremo, el de lo grande del Universo, el conocimiento cuántico es también esencial. La vida de las estrellas y la formación de los elementos durante la evolución del Universo requieren del saber cuántico para su explicación. Más aún, el conocimiento de los primeros momentos de la existencia del Universo ha sido elaborado gracias al desarrollo de la física cuántica. La "forma" del Universo y la especulación acerca de su futuro son también temas que requieren de la física cuántica, aunque en este caso la aportación de esta teoría es todavía incipiente pues no contamos aún con una explicación cuántica de los fenómenos gravitatorios. Acerca de esto último cabe mencionar que hay ideas atractivas y promisorias que animan mucho la investigación en ese campo y que nos dan esperanza de extender con buen éxito nuestro conocimiento y confiar en que pronto dispondremos de una "teoría cuántica de la gravitación".En la vida cotidiana la presencia del conocimiento cuántico es cada día mayor aunque todavía encubierta. La comunicación mediante satélites y teléfonos celulares, las computadoras y los lectores de discos compactos y códigos de barras emplean "circuitos integrados" –chips– para su funcionamiento, los cuales están formados por transistores, dispositivos hechos con semiconductores. El nombre de estos últimos proviene de que pueden ser o no ser conductores de la electricidad, de aucerdo con la forma en que los pongamos en operación y esta propiedad es de naturaleza cuántica. La electrónica actual y el creciente empleo de la fotónica –que usa la luz como base del funcionamiento de sus aparatos– están fundados en el conocimiento del mundo cuántico por lo que su divulgación es indispensable para comprender el mundo en que vivimos.

Como Se Formaron las Galaxias

La historia de las galaxias ha sido una serie de preconcepciones que han ido cayendo una tras otra, y los más recientes trabajos sobre el tema sugieren que las ciencias que se articulan para su estudio pueden esperar todavía más. El origen y desarrollo de las galaxias es una cuestión bastante compleja que, a su vez, genera uno de los problemas que se enfrenta la teoría del Big Bang. Observamos un universo contemporáneo muy poco homogéneo y de aspecto granulado. La densidad media de las galaxias es significativamente superior que las del espacio que las separa, alrededor de un millón de veces. Existen grandes variaciones entre las temperaturas del cosmos: el fondo del cielo está a 2,7º K, mientras que ciertos núcleos estelares alcanzan varios miles de millones de grados. Todo esto no refleja la situación del universo primigenio. El cocimiento primitivo es de que éste era extremadamente isotermo. De ello nacen una multiplicidad de interrogantes. La primera que se me viene es ¿Cómo pasó el universo del anterior estado homogéneo al actual observado muy poco homogéneo? ¿Cómo es que se fueron formando las galaxias en medio de la cazuela primigenia o primordial? ¿Por qué se formó la grumocidad que se observa en el espacio primario? Muchas de estas interrogantes -no todas- han sido fundamentales para que encuentren cabida nuevas teorías, no solamente para explicar el origen de las galaxias, sino que también el del mismísimo universo.

En el marco de la teoría del Big Bang, las semillas de las galaxias fueron sembradas cuando tiempo, espacio, energía y materia estallaron en una gran explosión hace unos 15.000 millones de años. Los físicos sólo pueden especular acerca de la dinámica y la distribución de la materia primigenia, pero una cosa es virtualmente cierta: el universo hoy, se encuentra en partes cubierto por grande acumulaciones de gases o estrellas, como si flotaran dentro de un espacio de apariencias oscuras, y que se encuentran flojamente unidas por la fuerza de la gravedad. Fue de esas crisálidas cósmicas –llamadas protogalaxias– de donde han emergido las bellas galaxias que hoy observamos. Exactamente cómo fueron formadas las protogalaxias es uno de los debates siempre presente dentro del seno de la comunidad de estudiosos del cosmos. Una de las explicaciones para la formación de las protogalaxias nace de una consecuencia rigurosa con la física. Esta nos indica que es la gravedad el principal actor para que se formen esos objetos en el espacio. Un grumo primordial genera una atracción. La materia de su alrededores reacciona juntándose aumentando su masa e incrementando la gravedad. Este proceso se amplifica por sí mismo, al igual como se comporta una bola de nieve cuando se desprende en caída desde los altos de una montaña. Así habrían nacido las galaxias del cielo y, si se quiere, con agujeros negros incluidos en sus núcleos centrales. A este modelo de explicación sobre el origen de las galaxias se le suele llamar «modelo de jerarquía gravitacional».

En el proceso que hemos descrito para el embrionaje de las galaxias en el universo es necesario hacer una precisión. No existía ninguna posibilidad de que aquello se pudiese haber llevado a cabo si la materia hubiese sido absolutamente homogénea, ya que cada partícula, atraída de igual manera por todas las que la rodean, permanece en el estado inicial. Pero ello cambia, cuando la materia incrementa levemente su densidad por sobre el medio circundante, lo que hace que se genere un proceso de atracción y, de ahí, a la constitución de las protogalaxias. Un escenario verosímil, para darle cabida a nuestra teorización anterior, lo podemos describir dándole trabajo a nuestra imaginación. Pensemos que la materia primigenia haya albergado pequeñas fluctuaciones de densidad (espacios donde la densidad es un poco más elevada que la media). Aquellos espacios más densos, en consecuencia, con una mayor gravedad, atraen a la materia circundante. Ésta, primero se les aproxima y, luego se les une, lo que incrementa sus volúmenes de densidad como asimismo sus capacidades de atracción. Se trataría de un efecto semejante al de la «bola de nieve», en el cual los espacios más densos vacían progresivamente las regiones más livianas, acentuando continuamente los contrastes de densidad de la masa de la material primigenia. Serían los causantes del nacimiento de todas las grandes estructuras que cohabitan el universo.

La presencia de esos espacios embrionarios debería manifestarse dentro de un plazo breve en la evolución del universo. Sus huellas deberían ser distinguibles en la radiación cósmica de fondo uno de los problemas que siempre rondaba a la teoría del Big Bang. En marzo de 1992, el satélite norteamericano denominado COBE detectó las primeras evidencias de disparidad térmica en la radiación cósmica. En ello, por fin, se logra distinguir variaciones de temperatura, al nivel de una parte por cien mil. Se había encontrado los gérmenes de las grandes estructuras del cosmos. Si el fluido hubiese sido más homogéneo, un problema significativo estarían abordando los teóricos. En principio, esta idea aparece bastante encajable, ya que entrega una explicación adecuada para la generación de las galaxias en el espacio intergaláctico y, por ende, también la aparición de las estrellas en las galaxias. Pero hay un problema… Cómo se genera en el universo primigenio espacios de inhomogeneidades más densos. Se trata, por ahora, de un problema sin recursos para enfrentarlo.

Retomemos el computador y sometamos al modelo de jerarquía gravitacional a simulaciones de cúmulos irregulares en un universo en expansión. Dispongamos en posiciones iniciales 10 mil a 10 millones de puntos de masa, cada uno en representación de una galaxia o porción de una galaxia; programemos una velocidad centrífuga inicial correspondiente a la expansión del universo, y dejemos que interactúen mediante su gravedad mutua. Agreguemos materia oscura y materia faltante, conformando alguna fracción supuesta de la masa total y distribuyéndola de alguna forma también supuesta. Veremos que las hipotéticas galaxias se desplazan por la pantalla del monitor del computador, gravitando una hacia la otra y formando aglomeraciones, cúmulos y vacíos. Ahora, añadamos los efectos de la presión del gas a estas simulaciones computacionales. A continuación veremos que tales efectos –que surgen, en parte, de que las galaxias individuales no constituyen puntos de masa sino que tienen una extensión finita en el espacio– son relevantes sobre distancias de 100 millones de años luz, y menores. Sobre los cálculos de este escenario computacional, también se puede llegar a concluir que los cúmulos irregulares de materia inicialmente inferiores a unas mil veces la masa visible de una galaxia no son capaces de mantenerse unidas bajo los efectos de la radiación.

Otra de las tesis sobre el origen de las galaxias que también se estudia con el objetivo de arribar a una conclusión es la que se denomina el «modelo panqueque», desarrollado en Moscú a comienzos de la década de 1970 por Y. B. Zel'dovich, A. G. Doroshkevich y otros. En este modelo, los primeros cúmulos irregulares de masa que comenzaban a formarse eran muy grandes y, por supuesto, había muchos. A medida que se enfriaban iban colapsando bajo su propio peso, y la desintegración tendía a ser más rápida en una dirección. El resultado sería un delgado panqueque de gas, que luego se dividiría en múltiples fragmentos, cada uno de los cuales constituiría una galaxia individual. En esta imagen, las galaxias tenderían a estar distribuidas en capas, siguiendo la forma de su nube de gas materna. La tesis de la jerarquía gravitacional es un modelo de abajo hacia arriba para la formación de estructuras cósmicas, en que primero se forman pequeños cúmulos irregulares de materia que van creciendo cada vez más. En el modelo del panqueque, por el contrario, primero se forman grandes condensados de materia que luego se dividen en estructuras más pequeñas. En otras palabras, primero galaxias y después cúmulos o primero cúmulos y después galaxias.

Ahora bien, cualquier modelo sobre la formación de estructuras debe explicar la distribución observada de las galaxias. En especial, los cosmólogos deben explicar por qué muchas galaxias están situadas en capas relativamente delgadas (aquí, «delgadas» significa que el ancho es muy inferior a la altura o la profundidad, a pesar de que ese ancho pueda ser de un millón de años luz). El modelo del Big Bang supone que la gravedad es la fuerza principal para determinar la evolución y la estructura del universo. Y la opinión convencional sostiene que la gravedad produce por sí misma rasgos que varían con fluidez en las localizaciones de las masas, con anchos, alturas y profundidades comparables para cualquier agrupamiento de galaxias. Según esta perspectiva, se necesitan otros fenómenos físicos o condiciones iniciales especiales para obtener características definidas en la distribución de la masa, como las cuerdas o las capas delgadas de galaxias.

También a través de las simulaciones computacionales se demuestra que las características definidas pueden en efecto presentarse si las inhomogeneidades iniciales son suficientemente pronunciadas en fragmentos pequeños y distancias breves. Lo anterior, dio cabida para desarrollar otra versión del modelo de jerarquía gravitacional, a través de la utilización de varios millones de puntos de masa, a la cual se ha denominado «modelo de la materia oscura fría». El modelo de la materia oscura fría, que intenta explicar la formación de galaxias y otras estructuras de gran escala, se basa en el modelo del universo inflacionario (lo veremos en un capítulo posterior), que exige que W sea igual a 1 y que especifica las inhomogeneidades iniciales en el universo recién creado. El nombre del modelo proviene del supuesto que las partículas de materia oscura -cualquiera sea su naturaleza- se desplazan lentamente, es decir están frías, y por ello son fácilmente desviadas por la gravedad. Muchos teóricos que trabajan en el problema del origen de las galaxias y de la estructura en gran escala del universo han adoptado el modelo de la materia oscura fría como punto de partida.

Sin embargo, las observaciones no han sido un buen aliado de este modelo, ya que de ellas se extraen más de un argumento como para dudar de su viabilidad. Del catastro confeccionado sobre unas dos mil galaxias en el cual se combinan la información del desplazamiento al rojo, la posición tridimensional y una amplia cobertura del cielo, se infiere la existencia de más aglomeraciones de galaxias en escalas que superan por 30 millones de años luz lo que puede explicar el modelo de la materia oscura fría. Estas observaciones de inhomogeneidades sustanciales en gran escala vienen a ratificar trabajos anteriores de descubrimientos de cúmulos de galaxias a escalas de varios cientos de millones de años luz, que muestran mayor acumulación que la que podría explicar el modelo de la materia oscura fría. También el descubrimientos de El Gran Atractor, comprende inhomogeneidades de masa en escalas para las que el modelo de la materia oscura fría ya no es válido. Considerando todas estas observaciones, es legítimo pensar que este modelo está hoy en serias dificultades.
Un enfoque más nuevo sitúa a las llamadas supercuerdas en el centro de las turbulencias que dan nacimiento a las protogalaxias. Aunque nunca se han podido observar, pero existen algunas evidencias indirectas como para dar la cabida a que podrían haber existido, las supercuerdas se encuentran insertas en las predicciones del Big Bang. En teoría, son filamentos residuales de los instantes primarios del universo que podrían haber tenido la forma de invisibles rizos o bucles vibrantes muy pequeños pero con una enorme cantidad de energía almacenada en ellos. Puesto que las cuerdas no se habrían expandido con el resto del universo, serían increíblemente densas y masivas, con un peso que un trocito de un centímetro de largo y una trillonésima del grueso de un protón pesaría tanto como un macizo cordillerano. Lo más importante es que oscilarían a velocidades cercanas a la de la luz, perdiendo tanta energía que acabarían disolviéndose. Esta emisión de energía pudo crear ondas de choque que luego comprimieran los gases circundantes, haciendo que se formaran cúmulos estelares y protogalaxias.

Las galaxias remotas nubes de gas primordial (espiraladas unas, elípticas otras) son sistemas estelares externos, muchas muy semejantes a la Vía Láctea, son el crisol para la formación de estrellas, planetas, la materia y el mismísimo tiempo. Otro enfoque nuevo sobre el origen de las galaxias es aquel que sitúa a los agujeros negros como responsables de la formación de éstas en el universo, es lo último que circula dentro del ámbito de las ciencias del cosmos. Como partida para formular esta nueva idea se retoma, en parte, la hipótesis sobre la posible existencia de agujeros negros en el núcleo de las radiogalaxias y de conjeturas que se pueden extraer de los estudios y análisis de las últimas observaciones que se han realizado a los quásares que se han podido ubicar en el cielo. En la conferencia N° 189, celebrada en enero de 1997, de la Asociación Astronómica Americana, un grupo de científico planteó que los gérmenes de las galaxias no nacen simultáneamente, en un pasado de 15.000 millones de años, a partir de un misteriosa explosión de energía concentrada en un punto infinitesimal de la nada. Consideran que el hecho de haber concitado una aceptación mayoritaria el origen del universo a partir de un átomo primigenio sólo ha servido para opacar controversias más racionales, como el porqué de ese estallido o hasta dónde era fiable tan rotunda perspectiva. Para ellos, los gérmenes de formación de galaxias corresponden a una recreación de formación continua y que no se cocinaron todos de golpe en una fragua cósmica de hidrógeno y helio. Su formación se debería a un proceso prácticamente permanente pero con chispazos dispares, como ocasionales chisporroteos de un leño ardiente o explosiones aleatorias semejantes a la de los fuegos de artificio. Ello explicaría la distinta densidad que se observa en las galaxias y la factibilidad de que exista un masivo agujero negro, casi, en cada núcleo de los centros de cada una de ellas. Pero esta propuesta va más allá de una nueva explicación para la formación de las galaxias. En efecto, ella conlleva más de una implicancia cosmológica. Calculan que esta versión explicativa, que es parte de otras propugnaciones que conforman una versión alternativa al «viejo Big Bang», abarcó un período de miles de millones de años, un tiempo tan extenso como la mitad de la edad que se ha estimado para el universo en función del modelo del Big Bang.
Las evidencias más serias sobre la posible existencia de los agujeros negros se han encontrado en el centro de nuestra propia Vía Láctea. En efecto, los astrónomos alemanes Andrea Eckart y Reinhard Genzel del Instituto de física Max Planck, en octubre de 1996, anunciaron que habían registrado una seria evidencia sobre la posibilidad de la existencia de un agujero negro en el centro del núcleo de la galaxia. Un equipo de astrónomos liderados por Genzel monitoreó los movimientos de 39 estrellas cercanas al núcleo galáctico con el objeto de estudiar cual era la naturaleza de sus movimientos que desarrollaban alrededor del centro de la galaxia. El equipo logró determinar que esas 39 estrellas comportaban un movimientos circular entorno al núcleo de la galaxia, lo que invita a pensar en la existencia de un objeto tremendamente masivo en el centro. Si las órbitas que describen esas estrellas fueran irregulares, entonces estaríamos pensando en la existencia de un objeto central de características poco masivas. El comportamiento gravitatorio de esas 39 estrellas, permite determinar que éstas orbitan un objeto de una masa aproximada de 2,5 millones de veces mayor que el Sol. Este objeto, se encuentra cerca de una fuente poderosa de radio, que se le conoce como Sgr Un+ y ello, puede ser considerado de hecho, como una muy buena adicional evidencia para estimar que el objeto que condiciona el comportamiento gravitatorio de esa estrellas cercanas al centro galáctico es un masivo agujero negro.

Por otra parte, recientes observaciones astronómicas permiten pensar de que se estaría confirmando la creencia de que los quásares son un fenómeno transitorio que le ocurre al núcleo, la parte central, de alguna galaxia, que los lleva a aumentar tremendamente su luminosidad, superando ampliamente a la de la galaxia entera. Se cree que por colisiones estelares y aglomeraciones de materia en el centro mismo de la galaxia, se puede ir condensando materia en gran cantidad, y que llegado el caso, la fuerza gravitatoria de ella no puede ser equilibrada con ninguna fuerza conocida en el universo y ese objeto masivo del núcleo colapsa para formar un agujero negro. Describir a los quásares en lo forma como lo hemos hecho anteriormente, como si en el fondo fueran una especie de aglomeración de materia estelar ardiendo como tizones en la boca de un agujero negro, no basta para entender qué son. Las observaciones recientes dan cabida para pensar que los quásares podrían ser galaxias jóvenes o en formación y, por lo consiguiente, como se estaría pensando como una generalidad para casi todas las galaxias, éstos comportarían un núcleo supermasivo en su interior: un agujero negro hecho de restos de millones de estrellas, y devorando todavía el material suelto que se encuentra disperso que al caer en sus fauces emite un haz suprabrillante que, sin embargo, la luz de él que llega a la Tierra es debilísima, tanto que los antiguos telescopios tenían serias dificultades para detectarla. Pero los quásares en sí despiden fuertes ondas luminosas a través del espacio, parte de sus rayos son absorbidos por nubes de gas que están en su ruta. Esto fue lo que hizo que teóricos como Arthur Wolfe, de la Universidad de California, pensaran en usar a los quásares como si fueran faros o linternas para ubicar posibles focos de formación de protogalaxias. Tesis que confirmó el astrónomo Charles Steidel en el año 1991, con sus trabajos realizados en Chile al descubrir veinte potenciales galaxias bebés, llegándose a la fecha a una cantidad que supera las ciento cincuenta en diferentes fases de evolución.
PUBLICADO POR:
ACUÑA REY ANDRES EDUARDO
C.R.F
PAGINAS DE REFERENCIA:

Un Siglo de Fisica Cuantica

La mecánica cuántica describe el comportamiento del fotón que incide en la superficie de un vidrio afirmando que se trata de un asunto de probabilidad: el fotón puede atravesar el vidrio o reflejarse de acuerdo con las propiedades de transparencia y reflectividad del vidrio. Suponiendo que éstas sean en alguna forma igualmente posibles, la probabilidad de transmisión y de reflexión será la misma, esto es, el 50%. Lo que hay que subrayar es que el fotón pasa o no pasa, es decir, no pierde su individualidad. Esta forma de explicación ilustra una de las características básicas de la física cuántica: sólo da probabilidades y no las certezas a las que nos había acostumbrado la física clásica. En la física cuántica la probabilidad entra como un elemento fundamental e irreducible de la descripción de la naturaleza. En el ejemplo anterior no podemos decir si un fotón determinado pasará o no pasará hasta que no lo hayamos observado y esto no se debe a que nos falte información, sino a que hemos aprendido que así es su comportamiento.

Lo dicho para los fotones –los "átomos" de luz– es válido para todas las partículas microscópicas. Los electrones, los protones y los neutrones, por ejemplo, se comportan a veces como ondas y a veces como partículas. Por eso los electrones pueden interferir y defractarse como los fotones cuando manifiestan su naturaleza ondulatoria, o bien seguir trayectorias determinadas cuando exhiben el comportamiento de partículas. Pero aunque la descripción cuántica de las partículas parezca vaga ha sido de una utilidad asombrosa. La mecánica cuántica nos ha permitido explicar en "forma atómica" fenómenos que a primera vista no parecería admitir tal tipo de explicación. Un ejemplo es describir la transmisión del sonido en una red cristalina como el paso de un haz de partículas llamadas fonones. De esta manera se explican ahora, en forma análoga a la propagacióin de la luz, las propiedades de la conducción del calor en muchos materiales sólidos. Hay muchas más particularidades de la física cuántica que nos están ayudando a entender los fenómenos del mundo microscópico y no hay lugar aquí para siquiera enumerarlos. Sin embargo, es imposible no mencionar algo que esa teoría nos ha mostrado: toda observación altera lo observado.
Para ejemplificar este hecho se suele referir que para observar la posición de un electrón es preciso hacer incidir sobre él por lo menos un fotón y que esta interacción alterará la posición de esta partícula. En las palabras de uno de los creadores de la física cuántica, el profesor Dirac, la fineza de nuestra capacidad para observar y la disminución de la peturbación ocasionada por esa acción tienen un límite, el cual es inherente a la naturaleza de las cosas. El descubrimiento de que toda observación altera lo observado ha tenido consecuencias muy importantes en la construcción de la ciencia actual pues, como bien sabemos, la misma está basada en la observación de la naturaleza.
La física cuántica hoyEntre los logros más difundidos de la teoría cuántica está la física atómica moderna, disciplina que explica las propiedades de las componentes básicas de los elementos químicos. Así sabemos, por ejemplo, que el helio es un gas cuyos átomos están formados por dos electrones unidos por una fuerza eléctrica producida por un núcleo muy pesado. Las propiedades de este elemento pueden explicarse satisfactoriamente en términos de la teoría cuántica, tanto en forma cualitativa como cuantitativa. Esa misma teoría nos ha permitido construir la física nuclear, que explica cómo está formado el núcleo atómico y por qué tiene las propiedades que lo caracterizan. En el caso del helio esta disciplina también ha dilucidado por qué es tan pesado su núcleo y por qué su forma natural es estable. Sabemos asimismo que los protones y neutrones que componen los núcleos atómicos están a su vez compuestos por otras partículas y que sus propiedades pueden describirse en términos cuánticos. Todo lo que hemos aprendido del mundo microscópico está ahora escrito en el lenguaje de la física cuántica.
En el otro extremo, el de lo grande del Universo, el conocimiento cuántico es también esencial. La vida de las estrellas y la formación de los elementos durante la evolución del Universo requieren del saber cuántico para su explicación. Más aún, el conocimiento de los primeros momentos de la existencia del Universo ha sido elaborado gracias al desarrollo de la física cuántica. La "forma" del Universo y la especulación acerca de su futuro son también temas que requieren de la física cuántica, aunque en este caso la aportación de esta teoría es todavía incipiente pues no contamos aún con una explicación cuántica de los fenómenos gravitatorios. Acerca de esto último cabe mencionar que hay ideas atractivas y promisorias que animan mucho la investigación en ese campo y que nos dan esperanza de extender con buen éxito nuestro conocimiento y confiar en que pronto dispondremos de una "teoría cuántica de la gravitación".

En la vida cotidiana la presencia del conocimiento cuántico es cada día mayor aunque todavía encubierta. La comunicación mediante satélites y teléfonos celulares, las computadoras y los lectores de discos compactos y códigos de barras emplean "circuitos integrados" –chips– para su funcionamiento, los cuales están formados por transistores, dispositivos hechos con semiconductores. El nombre de estos últimos proviene de que pueden ser o no ser conductores de la electricidad, de aucerdo con la forma en que los pongamos en operación y esta propiedad es de naturaleza cuántica. La electrónica actual y el creciente empleo de la fotónica –que usa la luz como base del funcionamiento de sus aparatos– están fundados en el conocimiento del mundo cuántico por lo que su divulgación es indispensable para comprender el mundo en que vivimos.

EL DESCUBRIMIENTO DEL MUNDO ATOMICO

En el mes de Agosto se cumplen 65 años desde el lanzamiento de la bomba atómica sobre Hiroshima. EL OJO DE LA ETERNIDAD no puede permanecer aparte, en particular porque su día de cumpleaños coincide (pura casualidad, en todo caso) con la bomba sobre Nagasaki. Así es que para conmemorar este suceso, vaya este artículo sobre el descubrimiento del mundo atómico. En la actualidad, ninguna persona ilustrada ignora que el mundo se compone de átomos de una noventena de clases distintas, que se combinan de millones de maneras distintas para conformar la materia, tal y como la conocemos. Sin embargo, en otros tiempos, este conocimiento era algo abstracto, casi esotérico. Que sepamos, los primeros que afrontaron este problema fueron los filósofos griegos, quienes dedicaron mucho tiempo a reflexionar sobre de qué estábamos hechos. Mientras que los primeros filósofos pensaban en substancias originarias como el agua, el aire, etcétera, Demócrito de Abdera dijo que todo eso eran ilusiones, y que sólo habían átomos y vacío. Aunque Demócrito no pudo aportar una sola prueba científica de sus ideas, sí acuñó la palabra "átomo", del griego "tomos" (división) y el prefijo negativo "a" (por tanto, significa "no divisible"). Sus ideas eran bastante exóticas. Pensaban que las substancias eran diferentes porque los átomos eran distintos entre sí: algunos eran calientes y otros fríos, algunos eran redondos y otros tenían pinchos, y así sucesivamente. Pero después llegó Aristóteles, quien dijo que si todo fuera átomos, la materia entera se desmoronaría, así es que esa teoría tenía que ser falsa. La posición aristotélica de que la materia era continua (es decir, que podía dividirse hasta el infinito, sin encontrar un punto de término) predominó en el pensamiento occidental durante milenios.

El problema comenzó a resurgir en el siglo XVII, con la histórica confrontación entre Newton y Huygens sobre la naturaleza de la luz. El primero sostenía que la luz eran ondas, y el segundo, que eran partículas. La ciencia actual considera que ambos tenían razón, debido a que el principio de la dualidad entre ondas y partículas, propio de la Mecánica Cuántica, permite aparecer a un fotón (partícula de luz) como ambas indistintamente. Pero fue John Dalton, en 1803, quien puso de moda nuevamente a los átomos. Esto permitía explicar los resultados de la gran revolución química emprendida por Lavoisier, a finales del siglo XVIII, quien transformó a la Química en una disciplina científica moderna, con ecuaciones y fórmulas matemáticas. Aún así, Dalton tampoco pudo aportar pruebas de sus ideas. Irónicamente, aunque los átomos se llaman así porque no se podían dividir (en teoría), lo cierto es que la primera evidencia de su existencia no apareció gracias a ellos mismos… sino gracias a una de las partículas en que pueden ser divididos. A finales del siglo XIX, los científicos comenzaron a trabajar con cierta energía, la de los rayos catódicos (que hoy en día es posible encontrar en los televisores). Llegaron a la conclusión de que estos rayos catódicos estaban compuestos de una partícula de electricidad con carga negativa, a la que llamaron electrón.

Paralelamente empezó el desarrollo de la Mecánica Cuántica. Hasta 1900 se sostenía que la energía se emitía en cantidades continuas. Un científico llamado Max Planck postuló algo bastante distinto: la energía no podía ser emitida en cualquier cantidad, sino en paquetes predeterminados, a los que llamó "quanta".  La combinación de las ideas de Planck, y los avances en la exploración de los átomos, llevaron a los científicos Rutherford y Bohr a concebir por primera vez un modelo de átomo. Por cierto que éste era divisible, o de lo contrario no podrían explicarse cosas como los rayos catódicos o los quanta, por lo que el átomo no era en sí la parte más pequeña de la naturaleza, pero el nombre estaba en circulación desde los tiempos de Dalton, así es que de esa manera quedó. El modelo de Bohr es bastante famoso, y consiste en una nube de electrones orbitando alrededor de un núcleo compuesto de protones y neutrones. Aunque los avances posteriores en materia de Mecánica Cuántica introdujeron la idea de probabilidad, en lo que a posición y órbita de los electrones se refiere, lo que hizo caducar bien pronto la idea de que el átomo era como una especie de sistema planetario en miniatura, como se promocionó en su tiempo.

Al mismo tiempo, los científicos sabían que existía el fenómeno de la desintegración atómica, que se manifestaba de maneras curiosas y exóticas, como la radioactividad o los Rayos X. Además, en ese tiempo, Albert Einstein lanzó al mundo la idea de que la materia y la energía eran realmente dos aspectos de una misma cosa, lo que sintetizó en su célebre fórmula E=mc2. De ahí que algunas mentes afiebradas concibieron la idea de que sería posible fisionar el núcleo atómico, para obtener cantidades ilimitadas de energía. Que la radiación pudiera ser potencialmente dañina para el ser humano, es algo que nadie había pensado. Madame Curie, que se hizo un nombre investigando los elementos radiactivos como el radio, el polonio y el uranio, no tomó ninguna precaución, simplemente porque no se imaginaba que la radiación pudiera ocasionarle algún daño, lo que puede haber influido en su causa de muerte (víctima de leucemia). En la actualidad sabemos que la radiación es nociva para las criaturas vivas porque altera la reproducción del código genético, pero en esa época no se conocían los mecanismos de transmisión de la herencia, ni el papel del ADN en todo eso. Como siempre, la guerra vino a dar un empujón al desarrollo de la energía atómica. Antes del estallido de la Segunda Guerra Mundial varios científicos, como el judío alemán Leo Szilard, o el italiano Enrico Fermi, escaparon de sus países de origen, sumergidos en las dictaduras totalitarias de Hitler y Mussolini, y llegaron a Estados Unidos. Por su parte Albert Einstein (otro judío refugiado de la Alemania nazi), escribió una célebre carta al por entonces Presidente Franklin Delano Rooselvet, en donde recomendaba el desarrollo de la energía atómica como una manera de combatir al Tercer Reich.

El resultado de todo esto fue el primer reactor atómico de la historia, que funcionó en Chicago en 1942. Con este experimento de fisión controlada, algunos se preguntaron si no sería posible liberar esa energía de manera descontrolada, como arma de guerra. El gobierno de Estados Unidos promovió la investigación respectiva, la que fue llamada Proyecto Manhattan, y que se desarrolló en Oak Ridge. A su cargo estaba Robert Oppenheimer, una de las más destacadas lumbreras en materia atómica. El 16 de Julio de 1945 estalló la primera bomba atómica, en Alamogordo. El resto es historia. En los días 06 y 09 de Agosto fueron reventadas otras dos más, sobre Hiroshima y Nagasaki. El mundo entró así de lleno al horror atómico, en particular cuando en las semanas siguientes comenzaron a sentirse los efectos, ya que circularon fotos de la destrucción ocasionada, de sombras en los muros de personas vaporizadas al instante, de enfermos envenenados por la radiación que morían en medio de atroces sufrimientos. Albert Einstein se arrepintió públicamente de haber escrito su carta a Rooselvet, y se transformó en un activo pacifista. Lo mismo ocurrió con Oppenheimer, y varios otros que trabajaron en el Proyecto Manhattan. El movimiento pacifista no sirvió, en todo caso, para evitar que tanto Estados Unidos y la Unión Soviética acumularan arsenal atómico suficiente para borrar varias veces a toda la Humanidad, y para que el mundo estuviera más de alguna vez al borde del holocausto atómico.
Pero también se desarrollaron los usos pacíficos de la energía atómica. Esto incluyó la construcción de reactores nucleares en varias partes del globo, en el desarrollo de los usos médicos de la radiación, etcétera. Lo que generó un nuevo problema, el del almacenamiento de los desechos nucleares, el que aún no ha sido resuelto con entera satisfacción. Por otra parte, el átomo fue definitivamente destronado de su sitial como centro de la materia. Las investigaciones posteriores llegaron a la conclusión de que incluso los protones y neutrones que componían los átomos, estaban compuestas de otras partículas incluso más pequeñas, llamadas quarks, entrelazadas entre sí de una complicada manera, porque aparentemente no pueden subsistir por sí mismas, sino que sólo pueden tener existencia en el seno de la partícula que integran. El grado de abstracción de estas construcciones científicas es tan alto, que incluso los propios científicos a veces no están demasiado seguros de entender qué consecuencias prácticas tienen sus modelos teóricos. También se han popularizado visiones filosóficas sobre la realidad atómica. No pocos han hecho especial hincapié en los paralelos que presenta la Mecánica Cuántica, y toda su idea de que el universo subatómico es meramente probabilístico, con el Budismo y otras filosofías orientales. En tiempos de la New Age se llegó incluso a especular que cada átomo podía ser en sí mismo una suerte de universo completo, y que el nuestro propio sería nada más que un átomo dentro de un universo todavía mayor.Sea como sea, la idea de que el universo está compuesto de átomos, y que ellos tienen parte muy importante en la naturaleza y composición última del mismo, es algo que se ha instalado en el imaginario occidental, gracias al trabajo de incontables generaciones de científicos que han sacado a la luz toda esa realidad escondida dentro de lo infinitamente microscópico.}

Masa Inercial y Masa Gravitacional son separadas al nivel cuántico

La Teoría de la Relatividad General de Einstein supone que la Masa Inercial y Masa Gravitacional son la misma cosa, sin embargo, un monumental nuevo avance en la Mecánica Cuántica acaba de indicar que no lo son, y que incluso pueden ser bastante diferentes.Este es el tipo de noticias que emociona a todo científico, y trataré de explicarles por qué (así como de su gran importancia), ya que esta noticia es sin duda una de las mas significativas en relación al tema de entender nuestro Universo, y de descifrar las leyes físicas que rigen a este. Es uno de esos adelantos que serán citados miles de veces en años venideros.Lo que sucede es lo siguiente: Hasta hoy, la teoría era que la misma fuerza que alguien sentiría acostado sobre el suelo en la Tierra sería idéntica a la fuerza que uno sentiría en el espacio en un vehículo que acelerara a 1g (es decir, "una fuerza de gravedad"), lo que suena bastante intuitivo.En otras palabras, acelerar rápidamente es equivalente a sentir una fuerza gravitacional halándote mientras tu estás en reposo.Pues ahora, gracias al trabajo de un tal Endre Kajari de la Universidad de Ulm en Alemania, eso parece no ser cierto a escalas atómicas (que es donde rigen las leyes de la teoria de la Mecánica Cuántica).


Para poner esto en contexto, noten que a la fecha, tenemos dos grandes teorías que explican casi todos los fenómenos que experimentamos en el Universo: La Teoría de la Relatividad de Einstein, y la Mecánica Cuántica.Cada una por separado es ultra-precisa en predecir todo tipo de fenómenos a una precisión casi inimaginable, lo que a simple vista aparenta decirnos que deben ambas estar correctas.La Teoría de la Relatividad puede lidiar por lo general de manera asombrosa con las fuerzas de la naturaleza a escalas de tamaño y velocidades extremas, como lo que sucede con objetos del tamaño de un meteoríto o una galaxia, o lo que sucede cuando movemos algo a velocidades cercanas a la de la luz.Por su parte, la Mecánica Cuántica es también asombrosamente precisa cuando lidia con el extremo de lo pequeño. Es decir, lo que ocurre a nivel atómico o sub-atómico.Ambas teorías han cambiado la forma en que percibimos al mundo, y ambas aparentan ser correctas, pero he aquí algo que por aproximadamente un siglo todo científico sabe: No lo son, ya que son mutuamente incompatibles.Es decir, la Mecánica Cuántica no funciona para hacer predicciones con respecto a la fuerza de la Gravedad, y la Relatividad no funciona para hacer predicciones con respecto a cosas como el efecto de entrelazamiento de átomos.Pero peor aun, existen unos casos especiales en donde ambas fallan. Esos casos son en el origen del Universo mismo en el momento inicial del Big Bang, así como lo que ocurre dentro de los llamados Agujeros Negros (que en esencia poseen un ambiente muy similar al del inicio de nuestro Universo).
Eso se debe a que en estos ambientes ocurren los dos extremos de manera simultánea: Unos potentes campos gravitacionales, y un "apretado" estado de la materia a nivel sub-atómico. En este caso, literalmente las ecuaciones de ambas teorías "se rompen" y ofrecen "respuestas" sin sentido.Y es aquí en donde entra la noticia de hoy...Con este adelanto, hemos obtenido una gran pista sobre el rol que juega la Gravedad a nivel cuántico, lo que quizás nos abra una brecha para ver cual es la relación entre ambas, y lograr por fin resolver el problema pendiente mas grande de la física moderna: La "Gran Unificación" de estas dos teorías en una "Teoría del Todo".Como lo dice el nombre, una Teoría del Todo nos permitiría tener ahora una serie de ecuaciones que describirían a todo nuestro Universo y su comportamiento, sino que además nos hablarían mas sobre nuestro origen primordial, y quizás incluso sobre nuestro destino final.Así que ya se imaginarán por qué tanta emoción por este adelanto. Estos son tiempos para recordar...
PUBLICADO POR:
ACUÑA REY ANDRES EDUARDO
C.R.F
PAGINAS DE REFERENCIA:

Lo Que Antes Era Solo Ciencia Ficcion

En el mundo actual se fabrican costosísimos automóviles de lujo, a razón de doce unidades por hora, sin que intervenga la mano del hombre; sistemas agrícolas que calculan la rentabilidad exacta de cada metro cuadrado de tierra sin importar cuantos miles de hectáreas sean; helicópteros del tamaño de una abeja; sistemas de clonación perfecta; computadoras que no tienen teclado ni ratón, que además se reducen al tamaño de un lapicero; equipos que localizan un cáncer dentro del cerebro, lo extirpan con radiaciones especiales sin fallar un milímetro en su localización; naves que viajan en el espacio por cientos de años explorando el universo; y lo más espectacular: equipos experimentales de teletransportación, mediante los cuales un día cambiaremos de lugar sin viajar, o viajaremos sin movernos, como usted mejor lo quiera entender. Pero a pesar de todos esos avances, los futurólogos nos dicen que las veinte empresas más importantes del mundo en los próximos veinte años están por nacer, pues trabajarán con tecnologías que aún no salen al mercado. Ante este panorama tan sorprendente, no nos queda más que preguntarnos: ¿qué es todo esto? ¿Hasta dónde ha llegado la ciencia? ¿Qué tanto más nos falta por descubrir? ¿Y nuestro país, dónde se ubica en todo este fenomenal desarrollo científico-técnico?No piensen que estoy tratando de imitar a Julio Verne o que les quiero hacer pensar que soy un experto en la materia. Ni lo uno ni lo otro. Simplemente he decidido "romper el vidrio" para que suene la alarma cerebral de los emprendedores nacionales.

 

Un abismo cada día más grande Admirardo y animado por todo lo que ocurre en el campo de la ciencia, investigué un poco y descubrí que todas esas maravillas de la tecnología tenían una base en común: la mecánica cuántica. Una ciencia que comenzó a desarrollarse hace 70 años y que en pleno siglo 21, en Nicaragua nos suena a una magia imposible de dominar con nuestras manos callosas de sembrar la tierra con espeque y mentalidad formada en universidades huérfanas de investigación, repletas de profesores "karaoke", que repiten viejos dogmas en color sepia.La mecánica cuántica es la base de la tecnología moderna. Con ella se ha construido un mundo imposible de imaginar hace treinta años y apenas esbozado en la introducción de esta página. Quienes dominan esta tecnología de lo "imposible" parecen correr a velocidades supersónicas, mientras en países como el nuestro viajamos a lomo de mula.Visto así, es fácil entender que el abismo tecnológico entre quienes pueden y nosotros, es cada día más grande. Para "romper el vidrio" y siendo audaz al tratar de abordar un tema tan complejo en palabras sencillas, decidí entrevistar a un físico-matemático y docente universitario, muy conocido por nosotros: el doctor Moisés Hassan. Con él haremos un primer recorrido por el mundo de la física moderna y el "mágico" mundo de la mecánica cuántica.Moisés, ¿qué relación tiene la física moderna con el desarrollo económico?Una sociedad donde la cultura tecnológica y científica no tiene un lugar especial es una sociedad cuyas posibilidades de desarrollo son muy limitadas, y está condenada a realizar copias burdas de lo que se produce en sociedades tecnológicamente avanzadas.

 

En nuestra sociedad ha habido predominancia de la cultura humanística, artística, lo cual es bueno y correcto, porque son las expresiones del espíritu las que hacen feliz nuestra mente, pero la otra cultura está totalmente subdesarrollada. Las sociedades avanzadas han manejado un balance entre las dos culturas.¿Qué hacen los profesores universitarios al respecto?Nos hemos limitado en las aulas a realizar un trabajo un poco mecánico, sin dedicar esfuerzos por fuera… adicionales. Claro, esto es muy difícil, dadas las condiciones del profesorado nacional. Se requiere de una cruzada para llegar a la mente de los nicaragüenses y que apoyen la investigación científica.Otro de los defectos que he encontrado en la enseñanza de la física es que las clases no son muy motivadoras. Empezamos a hablar de la Ley de Newton, de campos eléctricos, etc., sin antes haber despertado la curiosidad del estudiante. Te puedo hablar de mi propia experiencia. Muy chavalo, acostado en un sofá en la casa de mis padres, leí un artículo de Selecciones (revista popular) que decía que la materia por muy sólida que parezca es principalmente vacío, y ponía el siguiente ejemplo: si se tomara un edificio de cinco pisos y se lograra quitar los espacios vacíos que existe entre cada átomo de esa construcción, dicho edificio se convertiría en una pelotita de un centímetro de diámetro (ancho).Otro ejemplo: el Sol mide aproximadamente un millón de kilómetros de diámetro, y el día que pierda todo su combustible (hidrógeno y helio), probablemente se reduzca a una estrella de diez o veinte kilómetros de diámetro. Al perder su combustible, los átomos ya no estarían en movimiento. Este tipo de información despierta curiosidad.¿Cuál es la diferencia entre la física tradicional y la física cuántica?La física tradicional o mecánica de Newton es excelente para estudiar el Sistema Solar; se puede predecir la posición de los planetas, eclipses y todo lo que vos querrás para los próximos 500 años. Sin embargo, se descubrió que cuando los cuerpos se mueven a la velocidad de la luz, los resultados de esa física tradicional no son válidos. Surge entonces la teoría de la relatividad especial para explicar esos fenómenos. Lo mismo sucedió cuando se quiso aplicar esa física al mundo subatómico (microscópico). Por todo lo antes mencionado, nunca se debe asegurar que una teoría es válida al 100%, lo que se debe decir es que no se ha demostrado que falle. A medida que la ciencia avanza, se descubren los límites de las teorías existentes.No es que se abandonen, simplemente se conocen sus límites.Otro aspecto a considerar es que la física cuántica no es determinista, esto quiere decir que en un experimento realizado en las mismas condiciones pueden obtenerse diferentes resultados, y nosotros no estamos acostumbrados a eso. Al hablar de física cuántica, debemos tener una mente abierta.

Una pelota de hule podría perforar una paredLo que Moisés acaba de mencionar me recuerda lo que hace algún tiempo leí: "Una pelota de hule, con sus átomos funcionando en determinadas circunstancias y en un momento impredecible, podría perforar la pared contra la cual se lanza". Supongo que después de leer estas pocas líneas sobre física cuántica, sabemos que tal posibilidad no es asunto de brujería.Igual me hace recordar al médico indio D. Chopra, cuando dice que debemos comprender que la materia no siempre es algo sólido, como un trozo de madera o metal. Chopra asegura que la materia es simplemente energía más información, la cual se manifiesta de diversas formas. Si la materia fuese siempre algo sólido, no existirían los faxes, las computadoras y tantos otros avances científicos que hoy nos parecen tan normales.Moisés, ¿qué piensas de esto que acabo de mencionar?Existen las llamadas partículas materiales y las partículas llamadas ondulatorias y ambas son intercambiables. La mecánica cuántica sostiene que toda materia tiene ambas propiedades.Nota: Lo que este especialista explica se puede resumir en que: la materia sólida se puede convertir en otra que no se puede tocar (intangible), y también puede ocurrir lo contrario; lo intangible se puede volver tangible, se puede tocar.¿Un ejemplo de esa materia que no se puede tocar, la ondulatoria?La luz y las ondas electromagnéticas con las que se hace posible las transmisiones de la radio. Los rayos de luz no se pueden tocar, pero se puede sentir su calor si se aplican sistemáticamente en un punto. La luz bajo ciertas circunstancias puede ser considerada como radiación, y, en otras, como partículas. Para tu información, es bueno saber que Einstein ganó el premio Nobel de Física no por la teoría de la relatividad, sino por la teoría del efecto fotoeléctrico, que explica un poco lo que acabo de decir.

PUBLICADO POR :
ACUÑA REY ANDRES
C.R.F
PAGINAS DE REFERENCIA: