Breve historiaEditar
La tecnología subyacente se inventó en el último cuarto del siglo XIX, incluyendo la máquina analítica de Babbage y el telégrafo. La comunicación digital se hizo económica para su adopción generalizada tras la invención del ordenador personal. A Claude Shannon, matemático de los Laboratorios Bell, se le atribuye haber sentado las bases de la digitalización en su artículo pionero de 1948, A Mathematical Theory of Communication. La revolución digital convirtió la tecnología de formato analógico a formato digital. De este modo, fue posible realizar copias idénticas al original. En las comunicaciones digitales, por ejemplo, el hardware de repetición era capaz de amplificar la señal digital y transmitirla sin pérdida de información en la señal. De igual importancia para la revolución fue la capacidad de trasladar fácilmente la información digital entre medios, y de acceder a ella o distribuirla a distancia.
El punto de inflexión de la revolución fue el cambio de la música analógica a la grabada digitalmente. Durante la década de 1980, el formato digital de los discos compactos ópticos sustituyó gradualmente a los formatos analógicos, como los discos de vinilo y las cintas de casete, como el medio popular elegido.
1947-1969: OrígenesEditar
En 1947, el primer transistor funcional, el transistor de contacto puntual basado en el germanio, fue inventado por John Bardeen y Walter Houser Brattain mientras trabajaban a las órdenes de William Shockley en los Laboratorios Bell. Esto abrió el camino a los ordenadores digitales más avanzados. A partir de finales de la década de 1940, las universidades, el ejército y las empresas desarrollaron sistemas informáticos para replicar digitalmente y automatizar los cálculos matemáticos realizados previamente de forma manual, siendo el LEO el primer ordenador de propósito general disponible en el mercado.
Otros avances tecnológicos importantes fueron la invención del chip de circuito integrado monolítico por Robert Noyce en Fairchild Semiconductor en 1959 (que fue posible gracias al proceso planar desarrollado por Jean Hoerni), el primer transistor de efecto de campo de metal-óxido-semiconductor (MOSFET, o transistor MOS) con éxito por Mohamed Atalla y Dawon Kahng en los Laboratorios Bell en 1959, y el desarrollo del proceso MOS complementario (CMOS) por Frank Wanlass y Chih-Tang Sah en Fairchild en 1963.
Después del desarrollo de los chips de circuitos integrados MOS a principios de la década de 1960, los chips MOS alcanzaron una mayor densidad de transistores y menores costes de fabricación que los circuitos integrados bipolares en 1964. La complejidad de los chips MOS siguió aumentando al ritmo previsto por la ley de Moore, lo que llevó a la integración a gran escala (LSI) con cientos de transistores en un solo chip MOS a finales de la década de 1960. La aplicación de los chips MOS LSI a la informática fue la base de los primeros microprocesadores, ya que los ingenieros empezaron a reconocer que un procesador informático completo podía estar contenido en un solo chip MOS LSI. En 1968, el ingeniero de Fairchild Federico Faggin mejoró la tecnología MOS con su desarrollo del chip MOS de compuerta de silicio, que posteriormente utilizó para desarrollar el Intel 4004, el primer microprocesador de un solo chip. Fue lanzado por Intel en 1971 y sentó las bases de la revolución de los microordenadores que comenzó en la década de 1970.
La tecnología MOS también condujo al desarrollo de sensores de imagen semiconductores adecuados para las cámaras digitales. El primer sensor de imagen de este tipo fue el dispositivo de carga acoplada, desarrollado por Willard S. Boyle y George E. Smith en los laboratorios Bell en 1969, basado en la tecnología de condensadores MOS.
1969-1989: Invención de Internet, auge de los ordenadores domésticosEditar
El público conoció por primera vez los conceptos que dieron lugar a Internet cuando se envió un mensaje a través de ARPANET en 1969. Las redes de conmutación de paquetes, como ARPANET, Mark I, CYCLADES, Merit Network, Tymnet y Telenet, se desarrollaron a finales de la década de 1960 y principios de la de 1970 utilizando diversos protocolos. La ARPANET, en particular, condujo al desarrollo de protocolos para el trabajo en red, en el que múltiples redes separadas podían unirse en una red de redes.
El movimiento Whole Earth de la década de 1960 abogó por el uso de nuevas tecnologías.
En la década de 1970, se introdujo el ordenador doméstico, los ordenadores de tiempo compartido, la consola de videojuegos, los primeros videojuegos de monedas y la edad de oro de los videojuegos arcade comenzó con Space Invaders. Con la proliferación de la tecnología digital y el paso de los registros analógicos a los digitales se convirtió en la nueva norma en las empresas, se popularizó una descripción de trabajo relativamente nueva, la de empleado de entrada de datos. El trabajo del empleado de entrada de datos, procedente de las filas de las secretarias y mecanógrafas de décadas anteriores, consistía en convertir los datos analógicos (registros de clientes, facturas, etc.) en datos digitales.
En las naciones desarrolladas, los ordenadores alcanzaron la semicubrición durante la década de 1980, a medida que se abrían paso en las escuelas, los hogares, las empresas y la industria. Los cajeros automáticos, los robots industriales, el CGI en el cine y la televisión, la música electrónica, los sistemas de tablones de anuncios y los videojuegos impulsaron lo que se convirtió en el zeitgeist de la década de 1980. Millones de personas compraron ordenadores domésticos y los primeros fabricantes de ordenadores personales, como Apple, Commodore y Tandy, se convirtieron en nombres conocidos. A día de hoy, el Commodore 64 se cita a menudo como el ordenador más vendido de todos los tiempos, habiendo vendido 17 millones de unidades (según algunas cuentas) entre 1982 y 1994.
En 1984, la Oficina del Censo de EE.UU. comenzó a recopilar datos sobre el uso de ordenadores e Internet en los Estados Unidos; su primera encuesta mostró que el 8.La primera encuesta mostró que el 8,2% de todos los hogares estadounidenses poseían un ordenador personal en 1984, y que los hogares con hijos menores de 18 años tenían casi el doble de probabilidades de poseer uno, el 15,3% (los hogares de clase media y media alta eran los más propensos a poseer uno, el 22,9%). En 1989, el 15% de los hogares estadounidenses poseían un ordenador, y casi el 30% de los hogares con niños menores de 18 años tenían uno. A finales de la década de 1980, muchas empresas dependían de los ordenadores y la tecnología digital.
Motorola creó el primer teléfono móvil, el Motorola DynaTac, en 1983. Sin embargo, este dispositivo utilizaba la comunicación analógica; los teléfonos móviles digitales no se vendieron comercialmente hasta 1991, cuando se empezó a abrir la red 2G en Finlandia para dar cabida a la inesperada demanda de teléfonos móviles que se estaba haciendo patente a finales de la década de 1980.
La revista Compute! predijo que el CD-ROM sería la pieza central de la revolución, con múltiples dispositivos domésticos que leerían los discos.
La primera cámara digital verdadera se creó en 1988, y las primeras se comercializaron en diciembre de 1989 en Japón y en 1990 en Estados Unidos. A mediados de la década de 2000, habían eclipsado a la película tradicional en popularidad.
La tinta digital también se inventó a finales de la década de 1980. El sistema CAPS de Disney (creado en 1988) se utilizó para una escena de La Sirenita de 1989 y para todas sus películas de animación entre The Rescuers Down Under de 1990 y Home on the Range de 2004.
1989-2005: Invención de la World Wide Web, generalización de Internet, Web 1.0Editar
Tim Berners-Lee inventó la World Wide Web en 1989.
La primera retransmisión pública de televisión digital de alta definición fue la del Mundial de Fútbol de 1990 en ese mes de junio; se emitió en 10 cines de España e Italia. Sin embargo, la televisión de alta definición no se convirtió en un estándar hasta mediados de la década de 2000 fuera de Japón.
La World Wide Web pasó a ser de acceso público en 1991, que sólo había estado disponible para el gobierno y las universidades. En 1993, Marc Andreessen y Eric Bina presentaron Mosaic, el primer navegador web capaz de mostrar imágenes en línea y la base de navegadores posteriores como Netscape Navigator e Internet Explorer. Stanford Federal Credit Union fue la primera institución financiera en ofrecer servicios bancarios en línea a todos sus miembros en octubre de 1994. En 1996, OP Financial Group, también un banco cooperativo, se convirtió en el segundo banco en línea del mundo y el primero de Europa. Internet se expandió rápidamente y, en 1996, ya formaba parte de la cultura de masas y muchas empresas incluían páginas web en sus anuncios. En 1999 casi todos los países tenían una conexión, y casi la mitad de los estadounidenses y los habitantes de otros países utilizaban Internet de forma habitual. Sin embargo, a lo largo de la década de los 90, «conectarse» implicaba una configuración complicada, y el acceso telefónico era el único tipo de conexión asequible para los usuarios individuales; la actual cultura masiva de Internet no era posible.
En 1989, alrededor del 15% de todos los hogares de Estados Unidos poseían un ordenador personal; en el año 2000, esta cifra ascendía al 51%; en el caso de los hogares con niños, casi el 30% poseía un ordenador en 1989, y en el año 2000, el 65% poseía uno.
Los teléfonos móviles se hicieron tan omnipresentes como los ordenadores a principios de la década de 2000, y los cines empezaron a mostrar anuncios en los que se pedía a los usuarios que silenciaran sus teléfonos. También se volvieron mucho más avanzados que los teléfonos de la década de 1990, la mayoría de los cuales sólo recibían llamadas o, a lo sumo, permitían jugar a juegos sencillos.
Los mensajes de texto ya existían en la década de 1990, pero no se utilizaron de forma generalizada hasta principios de la década de 2000, cuando se convirtieron en un fenómeno cultural.
La revolución digital también se hizo verdaderamente global en esta época: después de revolucionar la sociedad del mundo desarrollado en la década de 1990, la revolución digital se extendió a las masas del mundo en desarrollo en la década de 2000.
2005-presente: Web 2.0, medios sociales, smartphonesEditar
A finales de 2005 la población de Internet alcanzó los mil millones, y 3.000 millones de personas en todo el mundo utilizaban teléfonos móviles a finales de la década. La televisión de alta definición se convirtió en el formato estándar de emisión de televisión en muchos países a finales de la década.
En 2012, más de 2.000 millones de personas utilizaban Internet, el doble que en 2007. La computación en la nube había entrado en la corriente principal a principios de la década de 2010. En 2016, la mitad de la población mundial estaba conectada y, a partir de 2020, esa cifra ha aumentado al 67%.