HISTORIA DE LOS COMPUTADORES

HISTORIA DE LOS COMPUTADORES

 

·      HISTORIA.       

 

 

·      ERA MECANICA

Máquina Diferencial de Babbage

 

·      ENIACLA ERA ELECTRONICA

 

 

 

 

 

 

 

·      PRIMERA GENERACION 1950 – 1958

Tubos al Vacío

 

 

 

 

 

·      SEGUNDA GENERACION 1959 – 1964

Transistor

 

 

 

 

 

·      TERCERA GENERACION 1965 – 1971

System/360

 

 

 

 

·      CUARTA GENERACION 1972 – ACTUAL

Lisa,  primer ordenador personal, con ratón e interfáz gráfica, fabricado por Apple.

 

HISTORIA

Ábaco

La Computación, y por tanto, las Ciencias de la Computación, tienen su origen en el cálculo, es decir, en la preocupación del ser humano por encontrar maneras de realizar operaciones matemáticas de forma cada vez más rápida y más fácilmente. Pronto se vio que con ayuda de aparatos y máquinas las operaciones podían realizarse de forma más rápida y automática.

El primer ejemplo que encontramos en la historia es el ábaco, aparecido hacia el 500 AC en Oriente Próximo, que servía para agilizar las operaciones aritméticas básicas, y que se extendió a China y Japón, siendo descubierto mucho más tarde por Europa.

También es digno de señalar el conocido Mecanismo de Antikythera, recuperado en 1900, construido alrededor del año 80 a.C., en la isla griega de Rodas, ubicada en el mar Egeo. Era un artefacto de cálculo astronómico con mecanismos de precisión. El usuario, por medio de una perilla, podía accionar un simulador en miniatura del movimiento del sol, la luna y varios planetas, teniendo a la vista la fecha en que se había dado, o se daría, tal combinación. Es tanta su sofisticación que ha sido llamado la primera computadora de Occidente.

Por otra parte, los matemáticos hindúes, árabes y europeos fueron los primeros que desarrollaron técnicas de cálculo escrito. El matemático árabe Al'Khwarizmi, alrededor del año 830 DC, escribe un libro de Aritmética, traducido al latín como Algoritmi de numero Indorum, donde introduce el sistema numérico indio (sólo conocido por los árabes unos 50 años antes) y los métodos para calcular con él. De esta versión latina proviene la palabra algoritmo.

 

arriba!

 

 

ERA MECANICA

Máquina Diferencial de Babbage

 

A finales del siglo XVI y comienzos del XVII comienza lo que denominamos Era Mecánica, en la que se intenta que aparatos mecánicos realicen operaciones matemáticas de forma prácticamente automática. En 1610, John Napier (1550-1617), inventor de los logaritmos, desarrolló las Varillas de Napier, que servían para simplificar la multiplicación. En 1641, el matemático y filósofo francés Blaise Pascal (1623-1662), con tan sólo 19 años, construyó una máquina mecánica para realizar adiciones, la Pascalina, para ayudar a su padre. Por su parte, Gottfried Wilhelm Leibniz (1646-1716) propuso el sistema binario para realizar los cálculos, construyendo una máquina que podía multiplicar, en incluso teóricamente, realizar las cuatro operaciones aritméticas. Sin embargo, la tecnología disponible le imposibilita la realización de las operaciones con exactitud. No obstante un estudiante alemán de la Universidad de Tubingen, Wilhelm Schickard (1592-1635) ya había construido una máquina de estas características entre 1623 y 1624, de la que hace unas breves descripciones en dos cartas dirigidas a Johannes Kepler. Por desgracia, al menos una de las máquinas quedó destruida en un incendio, y el propio Schickard murió poco después, víctima de la peste bubónica.

Los trabajos de Pascal y Leibniz tuvieron su continuación en 1727, cuando Jacob Leupold propuso algunas mejoras sobre el mecanismo de Leibniz. En 1777, Charles Mahon (1753-1816), Conde de Stanhope, construyó una máquina aritmética y otra lógica, esta última llamada Demostrador de Stanhope. En 1825, el francés Charles Xavier Thomas de Colmar diseña una máquina calculadora que posteriormente consigue comercializar con éxito.

Una mención muy especial requiere el desarrollo de un telar automático por el francés Joseph Jacquard (1752-1834), en 1801. En efecto, analizando las operaciones repetitivas que requería la producción de telas, este inventor imaginó conservar la información repetitiva necesaria bajo la forma de perforaciones en tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el desplazamiento adecuado de las guías del hilado, pudiendo una sola persona tejer complicados patrones codificados en las perforaciones de las tarjetas.

Fue Charles Babbage (1791-18171) el que diseñó una verdadera máquina procesadora de información, capaz de autocontrolar su funcionamiento. Desesperado por los errores contenidos en las tablas numéricas de la época y dándose cuenta de que la mayoría de los cálculos consistían en tediosas operaciones repetitivas, este profesor de la Universidad de Cambridge, proyecta e inicia la construcción de un nuevo tipo de calculadora. En 1821 presentó a la Royal Society una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo de diferencias sucesivas entre conjuntos de números, llamada Máquina Diferencial. Obtuvo por ello la medalla de oro de la Sociedad en 1822.

Más tarde, Babbage empezó a trabajar en la Máquina Analítica, en cuya concepción colaboró directamente Ada Augusta Byron, Condesa de Lovelace, hija de Lord Byron. El objetivo perseguido era obtener una máquina calculadora de propósito general, controlada por una secuencia de instrucciones, con una unidad de proceso, una memoria central, facilidades de entrada y salida de datos, y posibilidades de control paso a paso, es decir, lo que hoy conocemos como programa. Ada Lovelace, a quien se reconoce como la primera programadora de la historia, y en honor de quien se puso el nombre de Ada al conocido lenguaje de programación, ayudó a Babbage económicamente, vendiendo todas sus joyas, y escribió artículos y programas para la referida máquina, algunos de ellos sobre juegos. Sin embargo, este proyecto tampoco pudo realizarse por razones económicas y tecnológicas.

En el 1854, George Boole publica Las leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de Lógica y Probabilidad. Boole aproximó la lógica en una nueva dirección reduciéndola a una álgebra simple, incorporando lógica en las matemáticas. Comenzaba el álgebra de la lógica llamada Algebra Booleana. Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT (no).

 

arriba!

 

 

 

ERA ELECTRONICA

ENIAC

 

 

 

 

En la Universidad de Harvard, en 1944, un equipo dirigido por el profesor Howard Aiken y patrocinado por la IBM construyó la Mark I, primera calculadora automática. En lugar de usar piñones mecánicos, Mark I era un computador electromecánico: utilizaba relevadores electromagnéticos y contadores mecánicos.

Sólo dos años más tarde, en 1946, se construyó en la Escuela Moore, dirigida por Mauchly y financiada por el Ejército de los Estados Unidos, la ENIAC (Electronic Numerical Integrator and Calculator), la cual podía ejecutar multiplicaciones en 3 milésimas de segundo (Mark I tardaba 3 segundos). Sin embargo, las instrucciones de ENIAC debían ser dadas por medio de una combinación de contactos externos, ya que no tenía cómo almacenarlas internamente.

A mediados de los años 40 el matemático de Princeton John Von Neumann diseñó las bases para un programa almacenable por medio de codificaciones electrónicas. Esta capacidad de almacenar instrucciones es un factor definitivo que separa la calculadora del computador. Además propuso la aritmética binaria codificada, lo que significaba sencillez en el diseño de los circuitos para realizar este trabajo. Simultáneamente se construyeron dos computadores: el EDVAC (Electronic Discrete Variable Automatic Computer) y en 1949 en la Universidad de Cambridge el EDSAC (Electronic Delay Storage Automatic Computer), que fue realmente la primera computadora electrónica con programa almacenado.

En 1951 John W. Mauchly y J. Presper Eckert Jr. construyen el UNIVAC I, el primer computador para el tratamiento de información comercial y contable. UNIVAC (Universal Automatic Computer) reemplazó el objetivo de sus antecesoras que era científico y militar, abriendo paso a la comercialización de los computadores; aquí se inician las generaciones de computadores.

arriba!

 

 

Tubos al VacíoPRIMERA GENERACION
 1950 - 1958

 

 

 

 

 

En esta generación nace la industria de los computadores. El trabajo del ENIAC, del EDVAC, del EDSAC y demás computadores desarrollados en la década de los 40 había sido básicamente experimental. Se habían utilizado con fines científicos pero era evidente que su uso podía desarrollarse en muchas áreas.

La primera generación es la de los tubos al vacío. Eran máquinas muy grandes y pesadas con muchas limitaciones. El tubo al vacío es un elemento que presenta gran consumo de energía, poca duración y disipación de mucho calor. Era necesario resolver estos problemas.

UNIVAC I fue adquirido por el Census Bureau de los Estados Unidos para realizar el censo de 1951. IBM perdió este contrato porque sus máquinas de tarjetas perforadas fueron desplazadas por el computador. Fue desde ese momento que la IBM empezó a ser una fuerza activa en la industria de los computadores.

En 1953 IBM lanzó su computador IBM 650, una máquina mediana para aplicaciones comerciales. Inicialmente pensó fabricar 50, pero el éxito de la máquina los llevó a vender más de mil unidades.

 

arriba!

 

 

SEGUNDA GENERACION
 1959 - 1964

Transistor

 

 

 

 

 

 

Allá por 1945 la máxima limitación de las computadoras era la lenta velocidad de procesamiento de los relés electromecánicos y la pobre disipación de calor de los amplificadores basados en tubos de vacío.

En 1947, John Bardeen, Walter Brattain y William Shockley inventan el transistor, recibiendo el Premio Nobel de Física en 1956. Un transistor contiene un material semiconductor, normalmente silicio, que puede cambiar su estado eléctrico. En su estado normal el semiconductor no es conductivo, pero cuando se le aplica un determinado voltaje se convierte en conductivo y la corriente eléctrica fluye a través de éste, funcionando como un interruptor electrónico.

Los computadores construidos con transistores eran más rápidos, más pequeños y producían menos calor, dando también oportunidad a que, más tarde, se desarrollaran los microprocesadores. Algunas de las máquinas que se construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las IBM 704, 709 y 7094. También aparece en esta generación el concepto de supercomputador, específicamente diseñados para el cálculo en aplicaciones científicas y mucho más potentes que los de su misma generación, como el Livermore Atomic Research Computer (LARC) y la IBM 7030.

Pero esta generación se explica también por los avances teóricos que se dan.

Así, en 1950, Alan Turing publica el artículo Computing Machinery and Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de la Inteligencia Artificial. Por desgracia, Turing no fue testigo del interés que desató su artículo, porque en 1952 fue detenido por su relación homosexual con Arnold Murray y fue obligado a mantener un tratamiento con estrógenos que le hizo impotente y le produjo el crecimiento de pechos. En 1957, fue encontrado muerto en su casa al lado de una manzana mordida a la que había inyectado cianuro.

En 1951, Grace Murray Hooper (1906-1992) da la primera noción de compilador y más tarde desarrolla el COBOL. Pero fue John Backus, en 1957, el que desarrolla el primer compilador para FORTRAN. En 1958, John MacCarthy propone el LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la Inteligencia Artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollan el lenguaje ALGOL.

Pero el personaje más importante en el avance del campo de los algoritmos y su análisis, es Edsger Dijkstra (1930- ), que en 1956, propuso su conocido algoritmo para la determinación de los caminos mínimos en un grafo, y más adelante, el algoritmo del árbol generador minimal. Más tarde, en 1961, N. Brujin introduce la notación O, que sería sistematizada y generalizada por D. Knuth. En 1957, aparece la Programación Dinámica de la mano de R. Bellman. En 1960, S. Golomb y L. Baumet presentan las Técnicas Backtracking para la exploración de grafos. Se publican en 1962 los primeros algoritmos del tipo Divide y Vencerás: el QuickSort de Charles Hoare y el de la multiplicación de grandes enteros de A. Karatsuba e Y. Ofman.

En 1959, Jack Kilby (1923- ) presenta el primer circuito integrado, un conjunto de transistores interconectados con resistencias, en una pequeña pastilla de silicio y metal, llamada chip. Fue a partir de este hecho que las computadoras empezaron a fabricarse de menor tamaño, más veloces y a menor costo, debido a que la cantidad de transistores colocados en un solo chip fue aumentando en forma exponencial.

 

arriba!

 

TERCERA GENERACION
1965 - 1971

 

System/360

 

 

 

 

El cambio de generación se presenta con la fabricación de un nuevo componente electrónico: el circuito integrado. Incorporado inicialmente por IBM, que lo bautizó SLT (Solid Logic Technology). Esta tecnología permitía almacenar los componentes electrónicos que hacen un circuito en pequeñas pastillas, que contienen gran cantidad de transistores y otros componentes discretos.

Abril 7 de 1964 es una de las fechas importantes en la historia de la computación. IBM presentó el sistema IBM System/360, el cual consistía en una familia de 6 computadores, compatibles entre sí, con 40 diferentes unidades periféricas de entrada, salida y almacenaje. Este sistema fue el primero de la tercera generación de computadores. Su tecnología de circuitos integrados era mucho más confiable que la anterior, mejoró además la velocidad de procesamiento y permitió la fabricación masiva de estos componentes a bajos costos.

Otro factor de importancia que surge en esta tercera generación es el sistema de procesamiento multiusuario. En 1964 el doctor John Kemeny, profesor de matemáticas del Darmouth College, desarrolló un software para procesamiento multiusuario. El sistema Time Sharing (tiempo compartido) convirtió el procesamiento de datos en una actividad interactiva. El doctor Kemeny también desarrolló un lenguaje de tercera generación llamado BASIC.

Como consecuencia de estos desarrollos nace la industria del software y surgen los mini computadores y los terminales remotos, aparecen las memorias electrónicas basadas en semiconductores con mayor capacidad de almacenamiento.

 

 

arriba!

 

 

CUARTA GENERACION
1972 - ACTUAL

Lisa,  primer ordenador personal, con ratón e interfáz gráfica, fabricado por Apple.

 

 

Después de los cambios tan específicos y marcados de las generaciones anteriores, los desarrollos tecnológicos posteriores, a pesar de haber sido muy significativos, no son tan claramente identificables.

En la década del 70 empieza a utilizarse la técnica LSI (Large Scale Integration) Integración a Gran Escala. Si en 1965 en un "chip" cuadrado de aproximadamente 0.5 centímetros de lado podía almacenarse hasta 1.000 elementos de un circuito, en 1970 con la técnica LSI podía almacenarse 150.000.

Algunos investigadores opinan que esta generación se inicia con la introducción del sistema IBM System/370 basado en LSI.

Otros dicen que la micro tecnología es en realidad el factor determinante de esta cuarta generación. En 1971 se logra implementar en un chip todos los componentes de la Unidad Central de Procesamiento fabricándose así un microprocesador, el cual a vez dio origen a los microcomputadores.

Algunas características de esta generación de microelectrónica y microcomputadores son también: incremento notable en la velocidad de procesamiento y en las memorias; reducción de tamaño, diseño modular y compatibilidad entre diferentes marcas; amplio desarrollo del uso del mini computador; fabricación de software especializado para muchas áreas y desarrollo masivo del microcomputador y los computadores domésticos.

 

arriba!