Un breve recorrido por la historia de como la humanidad llegó a tener en sus manos supercomputadoras de bolsillo tan solo para compartir fotos y enviarse mensajitos.
Efectivamente, la historia de la computación y la informática es una fascinante odisea que abarca siglos de avances y descubrimientos humanos. Desde los rudimentarios sistemas de conteo hasta las asombrosas supercomputadoras y dispositivos portátiles que tenemos hoy, cada paso de esta evolución ha estado impulsado por la ingeniosa creatividad y la innovación humana.
Las matemáticas, que se originaron como una forma de describir y comprender el mundo que nos rodea, sentaron las bases para la lógica y el razonamiento que alimentan la computación moderna. Inventores y matemáticos como Al-Khwarizmi, Mayer, Babbage y Lovelace jugaron papeles clave en la definición de los principios fundamentales de la computación.
El advenimiento de la tecnología de válvulas de vacío en el siglo XX marcó el comienzo de la era de la electrónica, y con ella, la creación de las primeras calculadoras electrónicas. Durante la Segunda Guerra Mundial, la invención de la computadora Colossus y los esfuerzos de criptografía de Alan Turing y sus colegas demostraron el verdadero potencial y poder de las computadoras.
La miniaturización, a partir de la segunda mitad del siglo XX, transformó completamente la informática, llevándola del dominio de grandes empresas e instituciones gubernamentales al alcance del público en general. La aparición del primer microprocesador y el éxito de Apple II y el IBM PC marcó el inicio de la era de la informática personal, preparando el camino para la explosión de la informática en el hogar y la oficina.
Hoy en día, las computadoras son una parte integral de nuestras vidas, permitiéndonos comunicarnos, trabajar, aprender y entretenernos de formas que nuestros ancestros no podrían haber imaginado. Con el auge de la inteligencia artificial y el aprendizaje automático, el futuro de la computación parece tan emocionante y lleno de posibilidades como siempre. La historia de la computación es una prueba de la impresionante capacidad humana para el progreso y la innovación, y no puedo esperar a ver qué depara el futuro.
Preparados?
Vamos a hacer un apasionante viaje a través de los siglos para descubrir cómo se llegaron a crear los primeros ordenadores hechos a base válvulas como esta.
Hasta llegar a nuestros días, en los que cualquier homo sapiens que se precie, tiene en su poder mil veces más potencia de cálculo que la que disponía toda la NASA cuando envió el primer hombre a la luna.
Bueno pues si os parece interesante agarrarse que nos vamos al metaverso…… Kity arranca
Al principio los primeros humanos vivían en pequeñas tribus, en general todo lo que había que contar, se podía contra con los dedos. Un mamut (dedos), 2 ciervos, 3 chozas… pero en cuanto empezaron a cosechar y domesticar animales, había más comida y los poblados empezaron a crecer y crecer hasta que llegaron las primeras ciudades, y las cantidades a gestionar cada vez eran más grandes. Entonces se les ocurrió hacer grupos de 10 y cada grupo acumulaban una piedra o una semilla dependiendo de la tribu, así empezaron a apuntar las decenas y poco a poco lo fueron complicando hasta llegar a los primeros tableros de contar y los ábacos.
800
El sabio y matemático persa Al Juarismi, crea el método que utilizamos actualmente para resolver ecuaciones de segundo grado. Gracias a su tratado sobre aritmética, el mundo occidental incorporó el sistema de numeración que utilizamos hoy en día y nos salvamos de sumar y restar con números romanos. Y porque es importante, porque es el primero en definir un sistema metódico para resolver problemas matemáticos y de hecho de su nombre procede el concepto de algoritmo.
Durante muchos siglos, entre guerra y guerra, fueron mejorando las matemáticas en el papel pero poco más..
1617
En Edimburgo John Napier, si si el que inventó los logaritmo neperianos que damos en el cole, desarrolló un sistema para calcular mediante unas barritas con números, que le llamaron los huesos de Napier.
1623
Por esa época en occidente ya estaba bastante extendido el uso de los relojes mecánicos, así que aplicando la tecnología que disponía, el matemático alemán Wilhelm Schickard, junto la idea de Napier y la de los mecanismos de reloj y construyó lo que se conoce como la primera calculadora mecánica. Vamos, que automatizó los huesos de Napier.
1645
Poco después, el matemático y físico francés Blaise Pascal
Paco: A si, ese es de la presión en Pascales.
para ayudar a su padre que trabajaba en Hacienda, crea una máquina para sumar y restar y le llamó la Pascalina.
1700
El matemático y filósofo alemán Leibniz introduce los términos de «cálculo diferencial», «ecuación diferencial», » función», » variable», «constante», «coordenadas» y «algoritmo» (en un sentido cercano al moderno).
1800
Estamos en plena revolución de la industria textil, y el tejedor y comerciante francés Joseph Marie Jacquard desarrolla un sistema de tarjetas perforadas para controlar el dibujo formado en un telar.
1822
El matemático e inventor ingles Charles Babbage, con la idea de la máquina de calcular de Pascal, cree que se podría hacer cálculos más complejos y resolver ecuaciones diferenciales evitando lo coñazo de hacerlo a mano y los errores que se cometián al hacerlos en lápiz y papel y presenta su proyecto de máquina diferencial. (Ojo solo proyecto)
Trabaja en la idea durante años y poco a poco se da cuenta que utilizando la tarjetas perforadas del telar de Joseph Marie Jacquard, se podría hacer una máquina que se pudiese llegar a programar para hacer cualquier tipo de cálculo.
1834
Las ciudades ya están electrificadas y el estadounidense Joseph Henry a parte de otras cosas, inventa el relé,
La idea es que con un voltaje bajo, activas un electroimán que tira de una lengüeta que hace de interruptor que puede llevar voltaje más alto.
Esto permitió hacer repetidores y extender las señales de telegrafía a cientos de kilómetros.
1835
Babbage presenta el proyecto de la máquina analítica.
Aunque no dispuso de la tecnología ni los recursos necesarios para poderla terminar, Babbage es el primero en idear el concepto de máquina programable y por eso se le reconoce como uno de los padres de la informática.
El Museo de las Ciencias de Londres la consiguió terminar 150 años después de su diseño.
Era impresionante, tenía 8000 piezas y funcionaba y lo más curioso es que mostraba los resultados en lo que fue primera impresora de la historia.
Despues de su muerte hubo varios intentos de construir la máquina de Baggage, hasta que pasaron 150 años y el Museo de Ciencias de Londres, consiguió terminarla, y lo más curioso es que realmente al inventar el primer ordenador, para mostrar los resultados, inventar la impresora de la historia que cuando la construyeron constaba de 8000 piezas y pesaba más de 2,5 toneladas e incluso podía imprimir con dos fuentes tipográficas.
1842
ADA LOVELACE, curiosamente hija del poeta Lord Byron, crea el PRIMER PROGRAMA DE ORDENADOR. Ada realizó unas notas acerca del posible programa para la máquina analítica de Babbage. Ada describe con detalle las operaciones mediante las cuales las tarjetas perforadas «tejerían» una secuencia de números en la máquina analítica. Este código está considerado como el primer algoritmo específicamente diseñado para ser ejecutado por un ordenador.
1859
El matemático y filósofo ingles George Boole, publica su obra Ecuaciones Diferenciales y sienta las bases de la denominada álgebra booleana, si el tema este de calcular todo en base a ceros y unos, sentando las bases de la informática moderna.
1885
En estados unidos, Herman Hollerith construye la máquina censadora o tabuladora, que utiliza tarjetas perforadas para introducir los datos
algo revolucionario para la época, reduciendo así muchísimo el tiempo de elaboración del censo de los Estados Unidos. Está considerado como el primer informático. Como lo de censo era cada 10 años, busco como aplicar el invento a otras industrias y fundó la (Computing Tabulating Recording Company) una de las compañías que acabó formando la International Business Machines Corporation, IBM.
Y llegaron los electrones…
1901
En Gran Bretaña, John. A. Fleming que trabajando para Marconi
buscando la forma de amplificar la señal de radio, inventó la válvula termoiónica o válvula de vacío.
Como resultado más inmediato permitió que una señal de radio atravesara el océano Atlántico por primera vez en la historia pero realmente este invento fue el germen de una nueva era.
1906
En EEUU, Lee De Forest tuvo la ocurrencia de tomar el tubo de vacío de Fleming y añadir entre el filamento incandescente y la placa, una rejilla… solo para ver qué pasaba. Acababa de inventar el amplificador y le llamó el triodo.
No solo transformaba corrientes débiles en corrientes más fuertes, además se podía controlar esa amplificación con otra señal, esto inició la era de la electrónica.
Por este motivo Lee de Forest se le considera el padre de la electrónica.
1936
En Gran Bretaña, Alan Turing describía una máquina hipotética que llamó «máquina computadora universal», y que ahora es conocida como la «Máquina de Turing universal».
Paco: Pero eso no es lo que quería Babbage?
Bueno si, Babbage quería que hiciera cualquier tipo de cálculo, pero Turing quería que incluso pudiese jugar al ajedrez.
1938
En Estados Unidos John Vicent Atanasoff ideó en una servilleta de papel, utilizando la algebra de Boole
y las nueva válvulas de vacío,
una máquina que podía resolver un problema de cálculo de forma totalmente electrónica, consiguió una beca y un ayudante y la construyó. Se considera la primera máquina de cálculo totalmente electrónica.
1939
Los Nazis se comunicaban mediante mensajes encriptados con su máquina portátil Enigma.
Alan Turing junto a otros talentos estuvieron trabajando en secreto en una máquina a base de relés que permitía desencriptarla.
Podeis ver Enigma, una buena buena pelicula sobre esto.
Aunque habían conseguido robar una Enigma, interceptaban mensajes y buscaban patrones pero esta generaba billones de configuraciones distintas y los códigos cambiaban cada poco. En la desesperación a Turing se le ocurrió que la única manera de luchar contra esa máquina era crear otra máquina. Se creó una máquina a base de relés que conseguía la clave correcta de Enigma.
Como hacía un ruido como de “tic tac” le llamarón “la bomba”.
1941
En el lado alemán Honrad Zuse unió varias ideas, el concepto de máquina programable de Babbage,
los relés de Joseph Henry,
las operaciones binarias de Boole
y las tarjetas perforadas del telar de Joseph Jacquard
y creó el primer sistema informático programable de la historia llamándolo Z3.
Zuse pidió fondos para hacer más, pero los Nazis le dijeron que “no era importante para la guerra”. Cuando acabó la guerra Zuse fundó la primera compañía de computadoras del mundo.
1944
Volvemos al tema de encriptación, cuando Hitler se comunicaba con los altos mandos Nazis no utilizaban la ligera Enigma para sus comunicaciones,
utilizaban otra máquina mucho más compleja y pesada, la Lorenz SZ,
y para desencriptar esta requerían de muchísima más capacidad de cálculo que para Enigma.
Thomas H. Flowers que trabajó con Turing para desencriptar enigma, propuso hacer una nueva versión pero esta vez utilizando un sistema electrónico con los nuevos tubos de vacío,
y la máquina de telar
y el algebra de boole…
Se le llamó Colossus Mark I,
procesaba 5000 caracteres por segundo y requería de 1500 válvulas. La Colossus Mark 2 ya utilizaba 2400 válvulas. Durante la guerra se construyeron 10 Colossus repartidos por Gran Bretaña, y se estima que pudo ayudar a reducir casi dos años el final de la guerra.
Pero cuando acabó la guerra Churchill mandó desmantelar 8 y dejó bajo secreto de estado su existencia.
1945
En Estados Unidos, con tecnología similar al Colossus, se presenta al público el ENIAC,
ideada por John Presper Eckert y John William Mauchly.
Durante mucho tiempo se la nombró como la primera computadora programable.
Si pero nadie lo sabía, [en bajito] el Colossus era secreto.
Flower (el Britanco) se moría de rabia por contar que la Colossus lo consiguió antes y Zuse después de la derrota alemana imagino que tendría otras preocupaciones.
(Mauchly había visitado a John Vicent Atanasoff, litigio por patente )
El ENIAC medía 2,4 m x 0,9 m x 30 m y tenía 17.468 válvulas para realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Inicialmente fue pensado para calcular trayectorias de los proyectiles, pero se podía reprogramar para otros cálculos.
Cuando operaba la temperatura del local llegaba a los 50 °C.
Curiosamente la programación se hacía enchufando y desenchufando cables, y esto lo realizaban mujeres que anteriormente habían sido computadoras humanas.
Paco: Como, como Computadoras humanas?
si si antes de existir las ordenadores, los cálculos por ejemplo de la trayectoria de un misil o de un cohete lo hacían normalmente mujeres, con lápiz y papel y les llamaban computadoras humanas.
1947
Ahh! y os tengo que enseñar esto!!
[movimiento enseñando papel]
El primer Bug documentado de la historia en el Mark II de Harvard, parece ser que ya Thomas Edison decía que había bichos, Bugs, cuando algo iba raro, pues a partir de aquí se acuña el término bug para un fallo en el programa y se pone de moda el bugeo.
El problema es que las válvulas se iban fundiendo, de las 17000 una cada dos días, pero el resto como mallao.
1947
La inglesa Kathleen Booth trabajó en la contrucción y programación de ARC y como resultado ideó el lenguaje ensamblador, un lenguaje de programación que entendía la máquina directamente y que era relativamente fácil de entender por los humanos. También hizo otra gran aporte con sus trabajo sobre redes neuronales para el reconocimiento de patrones que es una de las ramas de la Inteligencia artificial.
Pero vamos a lo importante, en los laboratorios de Bell, la empresa que cuenta con más premios nobel del mundo, la compañia telefónica norteamericana, un grupo formado por William Shockley, John Barden y Walter Brattain que estaba experimentando con materiales semiconductores, diseñaron el primer transistor.
La industria electrónica solo lo consideraba un sustituto mejorado de la válvula, pero realmente inició la revolución de la miniaturización.
1952
IBM crea la 701, la primera computadora científica comercial.
Durante los cuatro años de producción se vendieron la friolera de 20 unidades.
1956
Aparece el primer disco duro de la mano de IBM, en medio metro de diámetro, almacenaba la friolera de 4,4 Mb, evitando leer secuencialmente los datos de una tarjeta perforada o de una cinta. Esto cambió radicalmente la velocidad de accesos a los datos.
El primero que lo utiliza es IBM en su IBM RAMAC 305, Su diseño fue motivado por la NECESIDAD DE REALIZAR TAREAS DE CONTABILIDAD EN TIEMPO REAL.
El disco duro, de unos 61 centímetros, alrededor de 4.4 MB de información.
1958
Jack Kilby, un ingeniero de la compañía Texas Instruments, patenta una solución para construir circuitos de forma fotográfica sobre una lámina de semiconductor, de forma que se podía crear circuitos con transistores en tamaños mucho más pequeños.
La miniaturización pasa a nivel microscópico y se convierte en el estándar de fabricación de circuitos electrónicos hasta nuestros días.
Y aparece la famosa ley de Moore que se ha ido cumpliendo hasta hoy en día. Que básicamente dice que cada 2 años se duplica el número de transistores por procesador y por tanto se duplica la capacidad de cálculo.
Y a partir de aquí es un no parar..
1959
Aparece el Lenguaje COBOL. Para muchos COBOL es el lenguaje de programación más importante de la historia. Muchos lenguajes actuales están basados en él (Pascal, BASIC, etc.). La prueba más grande que ha superado es la del tiempo, dado que todavía hoy hay miles de ordenadores corriendo aplicaciones COBOL. No es que COBOL haga cosas que otros no pueden hacer, pero es que trabaja lo suficientemente bien como para no tener que actualizarlo. Y casi todos los bancos del mundo tienen sus programas principales en Cobol. Por cierto, los programadores en Cobol están muy bien pagados.
1960
El ratón fue diseñado por Douglas Engelbart y Bill English durante los años 1960 en la Universidad Stanford, en pleno Silicon Valley en California. Más tarde, fue mejorado en los laboratorios de Palo Alto de la compañía Xerox. Apple lo hizo famoso y está en todos nuestros hogares.
1961
John F. Kennedy,
Con su discurso en defensa de la carrera espacial y su intención de que Estados Unidos llegase a la Luna, Kennedy consiguió que se destinasen grandes presupuestos a la carrera espacial que tiró de la industria de la electrónica derivando en el surgimiento de Silicon Valey.
1962
Tennis for Two y Spacewars o «juego de los marcianitos»compiten por ser considerado el primer videojuego de la historia. Aunque si somos puristas ya había un 3 en raya 1952, pero estos fueron más molones.
1969
UNIX, Es un SISTEMA OPERATIVO PORTABLE, MULTITAREA Y MULTIUSUARIO.
El Instituto Tecnológico de Massachusetts, los Laboratorios Bell de AT&T y General Electric trabajaban en un sistema operativo experimental llamado Multics desarrollado para ejecutarse en una computadora central. El objetivo del proyecto era desarrollar un gran sistema operativo interactivo que contase con muchas innovaciones hasta que Thompson inició la creación de un nuevo sistema operativo llamado UNIX.
1969
Se crea ARPANET
una pequeña red de computadoras que se creó por encargo del Departamento de Defensa de los Estados Unidos. Fue diseñada para la guerra, y acabó conectando ordenadores de universidades e instituciones publicas pero poco a poco
creció
y creció hasta crear las bases de funcionamiento del actual Internet.
1970
BASE DE DATOS RELACIONALES
En los laboratorios IBM se diseñó el nuevo paradigma en los modelos de base de datos. Antes de estos los datos se guardaban en ficheros como de excel. Pero no estaban relacionados unos con otros. Este concepto fue utilizado en todas las aplicaciones de gestión que vinieron a continuación.
1971
Es enviado el primer e-mail, fue enviado por Ray Tomlinson. Como curiosidad, utilizó por primera vez la arroba entre el nombre de usuario y la máquina a la que se dirigía. Este hecho pasó a la historia, como ya os habéis podido imaginar. Escogió este símbolo porque, según explicó, «seguro que no estaba en un nombre propio». Pero nadie le respondió. No había nadie mas con el programa.
1971
Aparece el primer microprocesador,
el Intel 4004 de Intel Corporation. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2300 transistores, (ahora ya no contamos válvulas) era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo.
1974
Ahora sí, aparece el primer microprocesador realmente diseñado para uso general, el Intel 8080.
de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 operaciones por segundo.
1974
Aparecen los primeros ordenadores basados en el intel 8008, el SCELBI
y poco después el Mark-8
como kit de electrónica.
otro microcomputador basado en el CPU Intel 8008. El Mark-8 fue diseñado por el estudiante graduado Jonathan Titus y anunciado como ‘kit flojo’ (loose kit) en una revista de electrónica Radio-Electronics.1
1975
Se funda MICROSOFT.
1975
El IBM 5100 Portable Computer fue un computador “portable”.
Una sola unidad integrada contenía el teclado, la pantalla y hasta 64 KB de RAM. Tenía el tamaño de una pequeña maleta, pesaba cerca de 25 kg y podía ser transportado en una carcasa opcional de transporte; por ello el nombre de «portable».
1976
Sale al mercado el Apple I
fue uno de los primeros computadores personales, y el primero en combinar un microprocesador con una conexión para un teclado y un monitor. Fue diseñado y hecho a mano por Steve Wozniak en colaboración con Steve Jobs.
Era una placa con 64 chips que los usuarios todavía tenían que agregar una carcasa, una fuente de alimentación, un teclado y una tele de casa como monitor.
1977
(febrero) Aparece el Tandy TRS-80 Modelo I.
Fue el primer ordenador que se vendió en masa, fabricaron una tirada inicial de 3000 unidades por si acaso y acabaron vendiendo 250.000.
Como no estaban muy seguros de su éxito se hizo una producción inicial en sólo 3.000 unidades, de modo que si la computadora fallaba en venderse, pudiera por lo menos ser utilizada para propósitos de contabilidad dentro de los 3.000 almacenes de la cadena. Sin embargo, vendieron 10 000 unidades el primer mes y 55.000 el primer año. Antes de descatalogarse en enero de 1981, se vendieron más de 250.000 unidades.
1977
(junio) se lanza el Apple II,
y este si que se vendió a gran escala. Fue popular entre los usuarios domésticos.
Después del lanzamiento de VisiCalc, la primera hoja de cálculo para computadora, el Apple II pasó de ser un juguete a convertirse en una herramienta financiera y las ventas se dispararon. El VisiCal, se convirtió en uno de los programas de más éxito de la historia, se vendieron 700.000 copias en 6 años.
La Apple II tenía aspecto de electrodoméstico, era a color y gráficos de alta resolución, capacidad de sonido y el lenguaje de programación Basic y una arquitectura abierta (todos podían fabricar fabricar cosas para enchufar, cosa de Wozniak). Las características estaban bien documentadas y eran de fácil aprendizaje.
La Apple II despertó el comienzo de la revolución de la computadora personal, ya que ahora no era un aparato tan solo para ingenieros o frikis, el ordenador se volvió un aparato para las masas para siempre.
Durante los 80 y parte de los 90 el Apple II fue el estándar de facto en el mercado educativo de los Estados Unidos, y también tuvo un enorme éxito en el mundo empresarial gracias a Visicalc
Estuvo en producción hasta 1993, y se convirtió en un estándar en esa década hasta que se sustituyó por el Macintosh se vendieron entre cinco y seis millones de unidades.
1978
Aparecen las BBS, que fueron los primeros sistemas en darnos una actividad social en red. Fue el principio de las redes sociales actuales.
1978
WordStar fue un procesador de textos, incluido en las computadoras Osborne 1. El creador de la saga «Game of Thrones» George R. R. Martin usa WordStar 4.0 como procesador de textos para escribir sus libros, en los que se basa la famosa serie de televisión de la HBO.
1979
Sale a la venta VisiCalc, la primera hoja de cálculo de la historia. Propulsó el Apple de ser juguete de un aficionado a ser una muy deseada herramienta financiera. Esto probablemente motivó a IBM a entrar al mercado del PC, que ellos habían ignorado hasta entonces.
Todos los gastos y costes en el desarrollo de este programa informático fueron amortizados en un periodo de 2 semanas haciéndolo uno de los programas con más éxito de la historia.
Se vendieron más de 700.000 copias de VisiCalc en seis años.
1979
(diciembre) Sucede una reunión de gran trascendencia, una delegación de Apple liderada por Steve Jobs visita las oficinas de Xerox PARC en Palo Alto, California. Xerox en aquel momentos era muchísimo más grande que Apple y querían invertir en ellos.
En aquellas visitas pudieron observar los avances realizados en este centro de investigación e innovación digital, entre ellos la interfaz gráfica de usuario,
Tenéis que ver la pelicula Piratas de Silicon Valley, lo explica genial.
el lenguaje de programación orientado a objetos y la interconexión en red de ordenadores, el concepto del ratón y poder hacer click en iconos.
Steve y sus colegas quedaron impresionados, era como poder ver el futuro.
A partir de aquí, todas estas innovaciones y conceptos fueron mejorados y desarrollados por Apple de una forma que Xerox no logró en sus productos. Arrastrar carpetas y archivos a través de la pantalla y mediante pequeños clics de ratón, abrir carpetas e introducir información. Incluso el sistema de ventanas, que hoy en día es el estándar usual en cualquier computadora de escritorio. Hasta la pantalla de fondo blanco, lo cual permite al usuario ver en pantalla lo que finalmente se iba a imprimir.
(WYSIWYG, por su acrónimo en inglés).
1981
(Abril) Xerox lanzó al mercado el Xerox Star,
Fue el primer sistema comercial en incorporar todas esas tecnologías que ahora son un estándar, interfaz gráfica de usuario, con ventanas, íconos, carpetas, ratón; red Ethernet; servidores de archivos; servidores de impresora y correo electrónico.
Pero resultó ser un fracaso comercial, Xeros sabía vender fotocopiadoras pero no ordenadores, encima tardaba un monton en arrancar y era carísima.
Así que Apple vio vía libre para plagiar y mejorar todas esas ideas en el Apple Lisa un par de años después.
1981
(Agosto) IBM viendo el auge de estos programas y el fulgurante éxito del Apple, con su Apple II, decidió entrar en el mercado que ellos habían ignorado hasta entonces. Y lanzo el PC.
El IBM PC o Personal Computer, fue la versión original y el progenitor de la plataforma de hardware compatible IBM PC.
También decidieron usar una arquitectura abierta (como el Apple II), de modo que otros fabricantes pudieran producir y vender componentes periféricos y software compatible sin la compra de licencias.
IBM también vendió un manual con completos diagramas esquemáticos de los circuitos.
IBM le encargó a Microsoft el SO para sus nuevos PCs.
Bill Gates compró los derechos de un sistema operativo de una empresa de Seattle, lo adaptó un poco y consiguió algo inédito en aquel entonces, que IBM le pagará por cada copia vendida, y que pudiese venderlo a otros que no fuesen IBM.
IBM pensó, bueno que más da! El PC fue un éxito y cada PC incluía una licencia de MS-DOS, y así fue el cómo nació imperio de Microsoft.
IBM esperaba mantener su posición en el mercado al tener los derechos de licencia del BIOS, y mantenerse delante de la competencia. Desafortunadamente para IBM, otros fabricantes rápidamente hicieron ingeniería inversa de la BIOS y produjeron sus propias versiones sin pagar derechos de uso a IBM. Compañías como Dell, Compaq, y HP, empezaron haciendo los primeros periféricos y ordenadores compatibles con PC hasta acabar fabricando el PC completo y finalmente el PC quedó como un estándar de facto.
1983
Fred Cohen, desarrolló una aplicación que permitía infectar el software de los ordenadores y que, además, era capaz de propagarse entre los distintos equipos mediante los antiguos disquetes. Cohen creó este virus para demostrar la gravedad de este problema, avisando de que no debía verse ignorado si no quería convertirse en un motivo de Seguridad Nacional.
1985
Aparece WINDOWS 1.0, en respuesta al creciente interés en las interfaces gráficas de usuario Microsoft Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90 % de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984.
1990
Tim Berners-Lee crea el primer navegador y sube su primera página web a los servidores del CERN.
Curiosamente utilizó un NeXTcube (otra obra Steve Jobs de la empresa que montó cuando lo echaron de Apple) como el primer servidor web del mundo.
1991
En abril de 1991, Linus Torvalds (21 años) empezó a trabajar en unas simples ideas para un núcleo de un sistema operativo. Comenzó intentando obtener un núcleo de sistema operativo gratuito similar a Unix que funcionara con microprocesadores Intel 80386.
Es uno de los principales ejemplos de SOFTWARE LIBRE Y DE CÓDIGO ABIERTO. Tiene un núcleo semejante al núcleo de Unix y está licenciado bajo la GPL v2 La mayor parte del software incluido en el paquete que se distribuye en su sitio web es software libre. Está desarrollado por colaboradores de todo el mundo.
El 26 de agosto de 1991 Torvalds escribió en un grupo de noticias:
«Estoy haciendo un sistema operativo (gratuito, solo un hobby, no será nada grande ni profesional como GNU) para clones AT 386[…] Me gustaría saber su opinión sobre las cosas que les gustan o disgustan en minix, ya que mi SO tiene algún parecido con él.[…] Actualmente he portado bash(1.08) y gcc(1.40), y parece que las cosas funcionan. Esto implica que tendré algo práctico dentro de unos meses…»
Tras dicho mensaje, muchas personas ayudaron con el código.
A día de hoy es el SO más utilizado en los servidores web y en las supercomputadoras, routers, smart TVs, relojes inteligentes, aparte de ser usado por muchos usuarios como la alternativa a Windows y Mac.
1997
La máquina vence al hombre, jugando al ajedrez
En una segunda partida de rebancha, el Deep Blue de IBM, gana a Garry Kaspárov al ajedrez, siendo la primera vez que una máquina gana en este juego al mejor ajedrecista del mundo. después de esto el ego humano quedó muy tocado.
1998
Se lanza google y arrasa con los buscadores que existían (yahoo, etc).
1999
Aparece el WI FI.
2001
Sale al mercado IPOD,
un reproductor de música digital que con sus más de 150 millones de unidades vendidas se convirtió en el reproductor de música más vendido del mundo. Pero los más importante fue el germen de otro dispositivo más revolucionario.
2004
Nace FACEBOOK
y cambia la forma en que nos relacionamos los humanos. En la actualidad hay casi 3000 millones de usuarios.
A día de hoy hay 7.993.612.869 habitantes
2012
Facebook adquirió Instagram y 2014 compró WhatsApp.
2005
Nace YOUTUBE.
Al año siguiente la compra Google por 1650 millones de dolares.
2007
Ahora sí el momento cumbre de nuestra historia.
Apple lanza el primer iPhone,
(otra vez Steve), el primer teléfono inteligente con pantalla táctil. Revolucionando la forma de utilizar los móviles iniciando una era en la que casi todo el mundo dispone en su bolsillo de un ordenador conectado a internet que hasta las abuelas saben utilizar.
2008
Al año siguiente sale al mercado los primeros terminales con Android,
un SO para móviles, basado en Linux. Aunque ya llevaban años desarrollandose, la salida del iPhone les obligó a reorientarlo a pantallas táctiles.
Lo compró Google y tardó años en estar a la misma altura de usabilidad y aplicaciones que el iPhone pero hoy en día lo utilizan más del 90% de los móviles que se venden, sobre todo gracias su licencia Open Source.
Bueno desde entonces hasta día de hoy podemos decir que no hubo ningún avance revolucionario a nivel de hardware, aunque si que llevan años cocinándose otras dos grandes revoluciones que cambiaran radicalmente nuestro futuro, por un lado la Inteligencia Artificial que ya la estamos empezando a notar y por otro la Computación Cuántica.
Pero eso lo veremos en la próxima geekehistoria.
Deja una respuesta