La velocidad y la capacidad de almacenamiento de las computadoras se han venido duplicando aproximadamente cada dos años, esto, acompañado de una miniaturización del componente fundamental del hardware: el transistor. Actualmente es posible fabricar chips (circuitos integrados de computadora) de un cuarto de micrón (un micrón es la millonésima parte de un metro), conteniendo cerca de 200 millones de transistores.
Pero de seguir la tendencia en la reducción del tamaño de los componentes, tendremos que enfrentarnos muy probablemente a las leyes cuánticas, cuando el tamaño de éstos alcance niveles atómicos. En este nivel, el transistor quizás pase a ser una pieza de museo y sea sustituido por una molécula.
En 1982, aparecieron las primeras ideas de lo que hoy se conoce como Computación Cuántica, cuando Ri-chard P. Feynman (1918-1988) observó que ciertos efectos de la mecánica cuántica (leyes de la física a nivel de partículas elementales) no pueden ser simulados por una computadora digital, e insinuó que la computación en general puede ser eficientemente mejorada aprovechando esos efectos de la mecánica cuántica. Es hasta 1985, cuando David Deutsch describió un modelo de una computadora cuántica, de alguna manera similar a lo que en 1936 fue propuesto como el modelo de la máquina de Turing, que sirvió como preámbulo de las computadoras actuales.
La computación cuántica es un área multidisciplinaria con influencias que van desde la arquitectura de computadoras hasta la física fundamental, pasando por las comunicaciones, la criptografía, las matemáticas, la microelectrónica y la nanotecnología por citar algunas, y tiene básicamente efectos en la tecnología de las computadoras con el hardware y el software.
En términos de hardware, a medida que la información pase a ser representada por unas cuantas partículas subatómicas, los dispositivos deberán tener la capacidad de reconocer los fenómenos cuánticos.
En relación con los algoritmos (procedimientos matemáticos para resolver problemas), la computación cuántica abre posibilidades antes no imaginadas, disminuciones exponenciales en el tiempo de procesamiento y realización de operaciones en paralelo sin la necesidad de agregar procesadores a la máquina.
COMPUTACION CUANTICA
A través de la historia el ser humano ha usado diversos materiales y utilizado múltiples mecanismos en el diseño, construcción y operación de máquinas que agilicen y automaticen la realización de cálculos y el procesamiento de información. Antiguamente, los primeros modelos fueron manuales, estos se remontan aproximadamente hasta 500 A. C., cuando los/las egipcios/as inventaron un artefacto que consistía en una serie de esferas atravesadas por varillas; este artefacto fue cambiado y perfeccionado por los chinos; y posteriormente en el siglo XIII D. C. Es cuando toma la forma clásica que conocemos; el ÁBACO está compuesto por 10 líneas con 7 esferas cada una, una línea corta todas las líneas en dos partes una más grande que la otra, ubicándose 2 esferas en la parte superior y cinco en la parte inferior.
Mucho tiempo después, se desarrollaron modelos mecánicos y eléctricos, es así que, Blaise Pascal, en 1649, fabricó la PASCALINA, una máquina que hacía operaciones de 8 dígitos. En 1820, Charles Babbage con la ayuda de la Condesa Ada Byron, construyó dos equipos totalmente mecánicos, usaban ejes, engranajes y poleas para realizar cálculos. Konraz Suze, ingeniero alemán, en 1942, construyó la primera computadora digital (electromecánica binaria) programable. Entre 1937 y 1942 Atanasoff y Berry, construyeron un prototipo compuesto de tubos al vacío, capacitores y un tambor de rotatorio para el manejo de los elementos de la memoria. En 1941 Turing construyó la COLLOSUS, una computadora que usaba miles de válvulas, 2400 bombas de vidrio al vacío, y un escáner con capacidad de leer 5000 caracteres por cinta de papel. En 1944 IBM (International Business Machines) construye la MARK I en cooperación con la Universidad de Harvard, media 15 metros de largo, 2.40 metros de altura y pesaba cinco toneladas. La ENIAC contaba con 17468 tubos de vidrio al vacío, fue construida en 1946.
En las últimas décadas se ha observado que algunos conceptos fundamentales de la mecánica cuántica —rama de la física que explica el comportamiento de la naturaleza a escalas muy pequeñas; por ejemplo, de los átomos, fotones, electrones— pueden ser aplicados para procesar y trasmitir información de manera extremadamente eficaz. En particular, si pudiésemos controlar y manipular el llamado mundo subatómico sería posible la construcción de computadoras cuánticas, capaces de efectuar cálculos de una capacidad y velocidad que son imposibles para las computadoras actuales. Por ejemplo, se estima que una computadora actual tardaría varios miles de millones de años para factorizar un número de mil dígitos, mientras que una computadora cuántica lo podría hacer en sólo cuestión de horas y quizás minutos. Es interesante hacer notar el hecho de que las computadoras con las que hoy se cuenta no tienen la capacidad de factorizar números grandes y que las instituciones bancarias y financieras las utilizan para el procesamiento de datos y envío de información confidencial y secreta (encriptada) a través de Internet, con la seguridad de que no podrá ser decodificada la información —pues para ello tendrían que factorizar un número grande. Así que si las computadoras cuánticas estuvieran en operación, todos estos métodos de comunicación y seguridad serían obsoletos e inseguros. Las computadoras cuánticas abrirán una nueva era en el mundo de la informática debido a que permitirán una comunicación más eficaz y mayor seguridad en el tratamiento de datos y trasferencias bancarias y financieras.
Computación cuántica y molecular
La carrera por la miniaturización de las computadoras, aunque lejos de concluirse, parece tener el objetivo final a la vista: átomos y moléculas en vez de silicio. La imaginación de los ingenieros informáticos ha llegado quizás a su última frontera en cuanto a los microprocesadores. Los actuales microchips, si bien cada vez más pequeños, ya se encuentran cercanos al límite físico de su construcción. Por esto cada vez más laboratorios se ocupan de dos líneas nuevas de investigación que llevarán las computadoras a un nuevo nivel de desarrollo: la computación cuántica y la molecular.
ENIAC, el primer ordenadorEn 1946 apareció el que podemos catalogar como el primer ordenador, ENIAC (Electronical Numeral Integrator and Computar). Fue construido en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly y ocupaba una superficie de 160 m2, operando con un total de 17.468 válvulas electrónicas. Las diferentes operaciones que podía realizar requerían de una operación manual de 6.000 interruptores.
La computación cuántica y sus implicaciones La velocidad a la que avanza la tecnología de computación y la velocidad de los procesadores es asombrosa, los geeks estamos encantados, por supuesto, pero todo esto, al menos de la manera en la que lo concebimos, parece tener un límite. Ya hablamos en ALT1040 que en 75 años, si no menos, habremos alcanzado las velocidades máximas de procesamiento. La Ley de Moore estipula que cada 2 años aproximadamente la velocidad y la capacidad de los ordenadores se duplica. Para que nos hagamos una idea si la dicha ley se hubiese aplicado de igual manera a los aviones un vuelo entre Nueva York y París en 1978 costaba cerca de 900 dólares y tardaba 7 horas en realizarse, a día de hoy costaría 1 céntimo de dólar y se habría realizado en menos de 1 segundo. Computación Cuántica
Todas las computadoras de hoy en día, desde la máquina que usa una persona en un café Internet para revisar su casilla electrónica, hasta las máquinas de última generación utilizadas por los investigadores en el CERN (Centro Europeo de Investigación Nuclear), cerca de Ginebra, en Suiza, son máquinas de Turing. Desde ese punto de vista, no son más sofisticadas que la Máquina Analítica de Charles Babbage de los años 1830. Todas obedecen al mismo principio, el de la Máquina Universal de Turing. En la actualidad, las computadoras más avanzadas siguen siendo máquinas que operan de manera sequencial sobre las operaciones elementales en que los programas dividen las tareas que se quieren ejecutar. Las llamadas supercomputadoras "paralelas", al fin y al cabo, no son más que varias máquinas trabajando en conjunto de cierta manera, y cada una de manera sequencial. El problema es que ese principio de funcionamiento limita seriamente las tareas computacionales que se pueden ejecutar. No se pueden atacar, por ejemplo, problemas grandes fuera de la clase P. Recordemos que un problema de la clase P es aquel para el cual el mejor algoritmo tiene un tiempo de ejecución polinomial en función del tamaño del input. La factorización de un número entero, por ejemplo, no está en P. No se dice que una factorización es imposible de realizar, ya que una computadora cualquiera puede, en principio, emprender la tarea, sino que para factorizar un entero grande se requiere tal capacidad de cálculo que, desde el punto de vista práctico, se puede considerar la tarea irrealizable.
A esto se añade otro problema, que se va haciendo más importante con el paso del tiempo. Desde el punto de vista físico, las computadoras actuales están basadas en un tipo de transistor, el CMOSFET, del inglés Complementary Metal Oxide Semiconductor Field Effect Transistor. Mucho del progreso en la capacidad de las computadoras se debe a la miniaturización de los componentes en un chip, gracias a los avances de la tecnología litográfica. Actualmente, por ejemplo, se pueden realizar compuertas lógicas y conexiones cuyo tamaño está por debajo del micrón (milésima de milímetro). En 1965, Gordon E. Moore, entonces de la compañía Fairchild Semiconductor, hizo notar que el número de transistores en los microprocesadores se estaba multiplicando