domingo, 27 de junio de 2010

Del Atomo Al Microchip

Una de las derivaciones del proyecto Manhattan fue el impulso que recibió la electrónica, sentando las bases prácticas para el desarrollo de los computadores. La participación de John von Neumann en el proyecto Manhattan fue a este respecto decisiva. Las necesidades de cálculo requeridas para el desarrollo del proyecto nuclear exigían nuevas innovaciones. Von Neumann conoció por Hermann Goldstine el proyecto de la Moore School of Electronics Engineering de la Universidad de Pennsylvania, embarcada en la construcción del computador electrónico ENIAC (Electronic Numerical Integrator And Computer) para los Ballistic Research Laboratories, que contaba con 18.000 válvulas. Von Neumann se incorporó al proyecto en el ámbito de la organización lógica. Al finalizar la guerra, Von Neumann se dedicó al desarrollo de máquinas más potentes, que culminaron con la construcción en Princeton de la JOHNNIAC que entró en funcionamiento en 1952. Era el comienzo de la era de los computadores. El desarrollo de la física del estado sólido en el campo de los semiconductores contribuyó decisivamente a ello. En 1947 el descubrimiento del transistor en los Laboratorios Bell por Brattain, Bardeen y Shockey permitió sustituir las viejas y aparatosas válvulas de vacío por los transistores, que redujeron las dimensiones e incrementaron las velocidades de cálculo de los computadores electrónicos.
         
Sin embargo, los antecedentes de los computadores se remontan más atrás en el tiempo. En 1930, Vannevar Bush desarrollo el analizador diferencial, base sobre la que se desarrollaron los computadores analógicos. El siguiente paso se debe a Howard Aiken, creador del Automatic Sequence Controlled Calculator, más conocido como Harvard Mark I, iniciado en 1939 y que entró en funcionamiento en 1944, que podía controlar toda la secuencia de cálculos, lectura de datos e instrucciones en un punto e impresionar sus resultados. Von Neumann y Goldstine avanzaron en el diseño lógico de los computadores, resolviendo los problemas asociados al almacenamiento de datos y programas en una memoria en común, proponiendo el sistema numérico binario, que se aplicó por primera vez en 1949 en el EDSAC de la Universidad de Cambridge, base sobre la que se asientan los computadores desde entonces. Antes habían contribuido a la construcción ENIAC, primer computador electrónico digital, abriendo paso a la segunda generación de computadores. Las ideas de von Neumann encontraron su plasmación más acabada en Princeton, el primer prototipo fue el IAS, o máquina de von Neumann, a partir de la que se construyeron la AVIDAC, la ORDVAC, la ORACLE, la SILLIAC, la ILLIAC, la MANIAC o la JOHNNIAC antes mencionada.
   
Sobre el modelo estándar de la IAS, la IBM introdujó el sistema de tarjetas perforadas que permitió desarrollar la IBM-701 en 1953. Un año más tarde aparecía la IBM-650 y en 1959 la IBM-1401. En esta época Jack Kilby de TI y Robert Noyce de Fairchild Semiconductor crearon el primer circuito integrado, conjunto de transistores y resistencias interconectados, nacía así el chip, que permitiría dar un salto de gigante en la construcción de computadoras y, en general, en la microelectrónica. A principios de los años sesenta un chip incorporaba unos cuantos transistores microminiaturizados, a finales del decenio de los ochenta un microchip incorpora millones de transistores. En abril de 1964 IBM desarrollaba el System/360, primera familia de computadores compatibles, y en 1981 creaba la primera computadora personal. En abril de 1976 Steve Wozniak y Steve Jobs fundaban la Apple Computer, que fabricaría la gama de computadores personales competidora con el sistema IBM, los Macintosh. En 1987, IBM lanzó al mercado el IBM PS/2, que ha reemplazado su anterior línea de computadoras personales.
El avance en el campo de los ordenadores ha exigido combinar diferentes disciplinas desde la lógica formal a la física cuántica, pasando por la física del estado sólido, la cibernética, la teoría de la información, la ciencia de sistemas y la teoría de sistemas. Dos ramas han sido precisas para ello: el hadware, o soporte material de los computadores, esto es la estructura de las máquinas, donde la física del estado sólido ha sido transcendental al permitir desarrollar los transistores y, posteriormente, los microchips, mediante los avances registrados en el campo de la semiconductividad y más recientemente de la superconductividad, en los que la física cuántica es fundamental, logrando máquinas infinitamente más potentes y reducidas; y el software, o ciencia de los lenguajes de programación, donde las matemáticas, la lógica formal, la teoría de la información y la teoría de sistemas han desempeñado un papel esencial, dando lugar a nuevas aplicaciones fruto del avance de la programación computacional, en este campo el concepto de algoritmo es imprescindible.
           
Los trabajos del británico Alan M. Turing en 1936, Emil Post en 1943 y Markov en 1947 han sido básicos en el desarrollo de la teoría algorítmica, cuyos antecedentes inmediatos se sitúan en el cálculo lambda de Alonzo Church y las funciones recursivas generales de Gödel. La máquina universal de Turing, es un sistema matemático diseñado para manejar el problema general del cálculo no un objeto, de manera que para un argumento dado el valor de la función puede encontrarse utilizando sólo reglas preasignadas, aplicadas por la computadora y construidas previamente en su estructura. Su importancia reside en el hecho de que una máquina universal de Turing puede en principio ejecutar todo tipo de cálculo que sea realizable, Churc señaló en 1936 que es el mecanismo más general posible para la solución de un problema resoluble. Shannon ha reducido el número de estados internos de la máquina de Turing a sólo dos simplificando considerablemente el diseño de una máquina de Turing.
              
Von Neumann ha extendido el principio de la máquina universal de Turing a los procesos biológicos regidos por los mecanismos de replicación del DNA. Lo que ha llevado a los defensores de la Inteligencia artificial fuerte a pensar en la posibilidad de construir máquinas inteligentes, abriendo un nuevo campo en el que se entrelazan la física y química cuánticas con la bioquímica del cerebro y la cibernética. En la actualidad los computadores, tanto en serie como en paralelo, se basan en los principios de la máquina universal de Turing. Sin embargo, el propio Turing ha reconocido posteriormente que no puede existir un algoritmo general capaz de decidir sobre todas las cuestiones matemáticas. A ello ha contribuido decisivamente el teorema de incompletud de Gödel, al demostrar que el programa de David Hilbert era irrealizable, en tanto en cuanto cualquiera de los sistemas de matemáticas formales de axiomas y reglas de inferencia debe contener algunos enunciados que no son demostrables ni indemostrables con los medios permitidos dentro del sistema.
Publicado por:
Acuña Rey Andres Eduardo
C.R.F
Paginas de Referencia:

No hay comentarios:

Publicar un comentario