Mientras que ahora los ordenadores son una parte importante en la vida de los seres humanos, hubo un tiempo donde los ordenadores no existían. Conociendo la historia de los ordenadores y los progresos que se han hecho, nos puede hacer comprender lo complicado e innovador que supuso la entrada de esta tecnología en nuestra existencia.
Al contrario que la mayoría de los dispositivos, las computadoras son uno de esos inventos que no tienen un creador específico. Muchas personas han ido añadiendo sus creaciones a la lista de requerimientos para hacer funcionar un ordenador.
El comienzo
Quizás el año más significativo en la historia de los ordenadores fue el año 1936. Fue el año donde el primer “computador” fue desarrollado. Honrad Zuse fue el creador con su Z1. El Z1 se considera el primer ordenador ya que era el primer sistema totalmente programable. Había otros dispositivos antes que este pero ninguno con la capacidad de computación de este equipo.
No fue hasta 1942 que alguna empresa viera posibles beneficios y oportunidades los ordenadores. La primera compañía se llamó “ABC Computers” perteneciente a John Atanasoff y Clifford Berry. Dos años después, el ordenador “Harvard Mark I” fue desarrollado llevando más allá la tecnología de los ordenadores.
Durante el curso de los siguientes años, inventores por todo el mundo empezaron a investigar el mundo de las computadoras y como mejorarlas. Los 10 años siguientes vieron nacer el transistor, que se convertiría en parte vital de la electrónica que compone un ordenador. Por aquel entonces existía la ENIAC 1, la cual requería de 20,000 válvulas para operar. Era una máquina de gran tamaño y empezó la revolución para construir ordenadores mas pequeños y rápidos.
La era de los ordenadores quedo alterada por la introducción en escena de IBM (International Business Machines) en el año 1953.Esta compañía, en el curso de la historia del ordenador, ha sido un punto clave en el desarrollo de nuevos sistemas y de servidores de uso público y privado. Esta introducción trajo los primeros signos reales de competencia en el mundo informático, lo cual ayudó a un mejor esparcimiento de los ordenadores en el mercado. Su primera contribución fue el ordenador IBM 701 EDPM.
Evolución de un lenguaje de programación
Un año mas tarde, el primer lenguaje de programación de alto nivel, fue desarrollado… FORTRAN. Dicho lenguaje de programación no estaba escrito en ensamblador o binario, los cuales están considerados de bajo nivel. FORTRAN se escribió para que más personas pudieran empezar a programar de forma mas fácil.
En el año 1955, el banco de América, juntó con el instituto de investigación Stanford y “General Electric”, vieron al creación de los primeros ordenadores para su uso en bancos. El MICR (Magnetic Ink Character Recognition) junto con el sistema ERMA comenzaron a funcionar en industrias relacionadas con la banca. No fue hasta 1959 que ambos sistemas se pusieron en uso para los bancos tradicionales.
Durante 1958, otro importante evento ocurre con la creación del circuito integrado. El dispositivo, también conocido como chip, es uno de los requerimientos básicos para los sistemas de ordenadores modernos. En cualquier placa base o tarjeta, encontraremos chips que contiene información de lo que estos dispositivos deben hacer. Sin estos chips, los sistemas tal como los conocemos no podrían funcionar.
Juegos, ratón e Internet
Para muchos usuarios de ordenador, los juegos han sido una parte vital dentro del mundo de los ordenadores. El año 1962 vio la creación del primer juego de ordenador, el cual fue hecho por Steve Russel y MIT, el cual se llamó “Spacewar”.
El ratón, uno de los componentes básicos de los ordenadores modernos, se creo en 1964 por Douglass Engelbart. Obtuvo su nombre por el cable que salía del dispositivo asemejándose a un ratón.
Uno de los aspectos mas importantes dentro del mundo informático en la actualidad, fue inventado en 1969. Hablamos de la red ARPA, la cual se puede considerar el Internet original y que proveyó de los fundamentos para el Internet que conocemos hoy en día.
No fue hasta 1970 cuando Intel entro en escena con el primer chip RAM dinámico que dio como resultado una autentica explosión de innovación en el mundo informático.
Casi al mismo tiempo salió el primer microprocesador que también fue creado por Intel. Estos dos componentes, junto con el chip creado en 1958, se pueden considerar el núcleo de los ordenadores modernos.
Un año mas tarde, se creó el “floppy disk” recibiendo su nombre por la flexibilidad de la unidad de almacenamiento. Este fue el primer paso para permitir a mucha gente transferir datos entre ordenadores NO conectados.
La primera tarjeta de red fue creada en 1973, permitiendo transferir datos entre ordenadores conectados entre si.
Aparecen los ordenadores caseros o PC’s
Los siguientes tres años fueron muy importantes para los ordenadores. Es cuando las compañías comenzaron a desarrollar sistemas para el consumidor medio. El Scelbi, Mark-8 Altair, IBM 5100, Apple I y II, TRS-80, y el Commodore Pet fueron los ordenadores pioneros en ordenadores domésticos, aunque resultaban algo caros.
Otro momento importante en el área de software informático, ocurrió en 1978 con la salida del programa de calculo VisiCalc. Todos los gastos y costes en el desarrollo de este programa informático fueron amortizados en un periodo de 2 semanas haciéndolo uno de los programas de mas éxito en la historia.
En 1979 sale a la venta WordStar, el primer procesador de texto. Esto cambió drásticamente el uso cotidiano que se le daba a los ordenadores hasta el momento.
El ordenador personal IBM ayudó a revolucionar el mercado de consumo en 1981, ya que con sus precios competitivos, permitió al usuario medio tener un ordenador en casa. 1981 también vio al gigante Microsoft entrar en escena con su sistema operativo MS-DOS. Este sistema operativo cambió el mundo de los ordenadores para siempre, y era suficientemente fácil para que todo el mundo lo utilizara.
La historia de la tecnología de los ordenadores vería otro cambio importante en 1983. El ordenador de Apple Lisa fue el primero con un interfaz gráfico o GUI. La mayoría de los programas modernos usan un interfaz gráfico, que permite su uso de forma sencilla y agradable para la vista. Esta tecnología empezada por Apple, marcó el principio de la desaparición de muchos programas basados solo en texto.
A partir de este punto, muchos cambios han ocurrido, sobre todo como consecuencia de la gran competitividad entre Apple y Microsoft. El desarrollo de todas las tecnologías existentes relacionada con el mundo del ordenador no tiene límites. Pero debemos recordar que sin esos pequeños pasos que se dieron al principio, nada de esto hubiera sido posible.Informacion cogida de: http://www.ordenadores-y-portatiles.com/historia-del-ordenador.html