Kurze GeschichteBearbeiten
Die zugrunde liegende Technologie wurde im letzten Viertel des 19. Jahrhunderts erfunden, darunter Babbages Analytical Engine und der Telegraf. Die digitale Kommunikation wurde erst mit der Erfindung des Personalcomputers für eine breite Anwendung wirtschaftlich. Claude Shannon, einem Mathematiker der Bell Labs, wird das Verdienst zugeschrieben, in seinem bahnbrechenden Artikel A Mathematical Theory of Communication (1948) die Grundlagen der Digitalisierung gelegt zu haben. Mit der digitalen Revolution wurde die Technik vom analogen Format auf das digitale Format umgestellt. Dadurch wurde es möglich, Kopien zu erstellen, die mit dem Original identisch sind. In der digitalen Kommunikation konnte zum Beispiel die Wiederholungshardware das digitale Signal verstärken und ohne Informationsverlust weiterleiten. Von ebenso großer Bedeutung für die Revolution war die Möglichkeit, die digitalen Informationen problemlos zwischen verschiedenen Medien zu verschieben und aus der Ferne darauf zuzugreifen oder sie zu verteilen.
Der Wendepunkt der Revolution war der Wechsel von der analogen zur digitalen Musikaufzeichnung. In den 1980er Jahren verdrängte das digitale Format der optischen Compact Discs allmählich analoge Formate wie Vinyl-Schallplatten und Kassettenbänder als beliebtes Medium.
1947-1969: UrsprüngeBearbeiten
Im Jahr 1947 wurde der erste funktionierende Transistor, der Punktkontakttransistor auf Germaniumbasis, von John Bardeen und Walter Houser Brattain erfunden, während sie unter William Shockley in den Bell Labs arbeiteten. Dies ebnete den Weg zu fortschrittlicheren digitalen Computern. Ab den späten 1940er Jahren entwickelten Universitäten, das Militär und Unternehmen Computersysteme, um zuvor manuell durchgeführte mathematische Berechnungen digital zu replizieren und zu automatisieren, wobei der LEO der erste kommerziell erhältliche Allzweckcomputer war.
Weitere wichtige technologische Entwicklungen waren die Erfindung des monolithisch integrierten Schaltkreises durch Robert Noyce bei Fairchild Semiconductor im Jahr 1959 (ermöglicht durch das von Jean Hoerni entwickelte planare Verfahren), der erste erfolgreiche Metall-Oxid-Halbleiter-Feldeffekttransistor (MOSFET oder MOS-Transistor) durch Mohamed Atalla und Dawon Kahng bei Bell Labs im Jahr 1959 und die Entwicklung des komplementären MOS-Prozesses (CMOS) durch Frank Wanlass und Chih-Tang Sah bei Fairchild im Jahr 1963.
Nach der Entwicklung von MOS-Chips in den frühen 1960er Jahren erreichten MOS-Chips bis 1964 eine höhere Transistordichte und niedrigere Herstellungskosten als bipolare integrierte Schaltungen. Die Komplexität der MOS-Chips nahm in dem Maße zu, wie es das Mooresche Gesetz vorhersagte, und führte Ende der 1960er Jahre zur Large-Scale-Integration (LSI) mit Hunderten von Transistoren auf einem einzigen MOS-Chip. Die Anwendung von MOS-LSI-Chips für die Datenverarbeitung war die Grundlage für die ersten Mikroprozessoren, da die Ingenieure erkannten, dass ein kompletter Computerprozessor auf einem einzigen MOS-LSI-Chip untergebracht werden konnte. 1968 verbesserte der Fairchild-Ingenieur Federico Faggin die MOS-Technologie mit seiner Entwicklung des Silizium-Gate-MOS-Chips, den er später zur Entwicklung des Intel 4004, des ersten Ein-Chip-Mikroprozessors, verwendete. Er wurde 1971 von Intel auf den Markt gebracht und legte den Grundstein für die Mikrocomputerrevolution, die in den 1970er Jahren begann.
Die MOS-Technologie führte auch zur Entwicklung von Halbleiter-Bildsensoren für Digitalkameras. Der erste Bildsensor dieser Art war der von Willard S. Boyle und George E. Smith 1969 in den Bell Labs entwickelte ladungsgekoppelte Baustein, der auf der MOS-Kondensatortechnologie basierte.
1969-1989: Erfindung des Internet, Aufstieg der HeimcomputerBearbeiten
Die Öffentlichkeit wurde erstmals mit den Konzepten vertraut gemacht, die zum Internet führten, als 1969 eine Nachricht über das ARPANET gesendet wurde. Paketvermittelte Netze wie ARPANET, Mark I, CYCLADES, Merit Network, Tymnet und Telenet wurden in den späten 60er und frühen 70er Jahren unter Verwendung einer Vielzahl von Protokollen entwickelt. Insbesondere das ARPANET führte zur Entwicklung von Protokollen für das Internetworking, bei dem mehrere getrennte Netze zu einem Netz von Netzen verbunden werden konnten.
Die Whole Earth-Bewegung der 1960er Jahre setzte sich für den Einsatz neuer Technologien ein.
In den 1970er Jahren wurden der Heimcomputer, Time-Sharing-Computer, die Videospielkonsole, die ersten Münzvideospiele eingeführt, und mit Space Invaders begann das goldene Zeitalter der Arcade-Videospiele. Mit der Verbreitung der Digitaltechnik und der Umstellung von der analogen auf die digitale Datenerfassung als neuem Standard in der Wirtschaft wurde ein relativ neues Berufsbild populär: der Datenerfasser. Aus den Reihen der Sekretärinnen und Schreibkräfte früherer Jahrzehnte hervorgegangen, bestand die Aufgabe des Dateneingabebeamten darin, analoge Daten (Kundenunterlagen, Rechnungen usw.) in digitale Daten umzuwandeln.
In den Industrieländern erreichten Computer in den 1980er Jahren eine nahezu allgegenwärtige Verbreitung, als sie in Schulen, Haushalten, Unternehmen und der Industrie Einzug hielten. Geldautomaten, Industrieroboter, CGI in Film und Fernsehen, elektronische Musik, Bulletin-Board-Systeme und Videospiele trieben den Zeitgeist der 1980er Jahre an. Millionen von Menschen kauften Heimcomputer und machten frühe PC-Hersteller wie Apple, Commodore und Tandy zu bekannten Namen. Bis heute wird der Commodore 64 oft als der meistverkaufte Computer aller Zeiten bezeichnet, von dem zwischen 1982 und 1994 17 Millionen Stück verkauft wurden.
Im Jahr 1984 begann das U.S. Census Bureau mit der Erhebung von Daten über die Computer- und Internetnutzung in den Vereinigten Staaten; die erste Erhebung ergab, dass 8.Ihre erste Erhebung ergab, dass 1984 8,2 % aller US-Haushalte einen PC besaßen, und dass Haushalte mit Kindern unter 18 Jahren mit 15,3 % fast doppelt so häufig einen Computer besaßen (Haushalte der mittleren und oberen Mittelschicht besaßen mit 22,9 % am häufigsten einen Computer). Im Jahr 1989 besaßen 15 % aller US-Haushalte einen Computer, und fast 30 % der Haushalte mit Kindern unter 18 Jahren besaßen einen Computer. In den späten 1980er Jahren waren viele Unternehmen von Computern und digitaler Technologie abhängig.
Motorola entwickelte 1983 das erste Mobiltelefon, das Motorola DynaTac. Dieses Gerät nutzte jedoch analoge Kommunikation – digitale Mobiltelefone wurden erst 1991 kommerziell verkauft, als in Finnland das 2G-Netz geöffnet wurde, um die unerwartete Nachfrage nach Mobiltelefonen zu befriedigen, die sich in den späten 1980er Jahren abzeichnete.
Das MagazinCompute! sagte voraus, dass die CD-ROM das Herzstück der Revolution sein würde, wobei mehrere Haushaltsgeräte die Discs lesen würden.
Die erste echte Digitalkamera wurde 1988 entwickelt, und die ersten wurden im Dezember 1989 in Japan und 1990 in den Vereinigten Staaten auf den Markt gebracht. Mitte der 2000er Jahre hatten sie den traditionellen Film an Beliebtheit überflügelt.
Die digitale Tinte wurde ebenfalls Ende der 1980er Jahre erfunden. Disneys CAPS-System (entwickelt 1988) wurde für eine Szene in Die kleine Meerjungfrau von 1989 und für alle Animationsfilme zwischen Die Retter von unten von 1990 und Home on the Range von 2004 verwendet.
1989-2005: Erfindung des World Wide Web, Verbreitung des Internets, Web 1.0Bearbeiten
Tim Berners-Lee erfand 1989 das World Wide Web.
Die erste öffentliche digitale HDTV-Übertragung war die Fußballweltmeisterschaft 1990, die in 10 Kinos in Spanien und Italien gezeigt wurde. Außerhalb Japans wurde HDTV jedoch erst Mitte der 2000er Jahre zum Standard.
1991 wurde das World Wide Web öffentlich zugänglich, das zuvor nur Behörden und Universitäten zur Verfügung gestanden hatte. 1993 stellten Marc Andreessen und Eric Bina Mosaic vor, den ersten Webbrowser, der Inline-Bilder anzeigen konnte und die Grundlage für spätere Browser wie den Netscape Navigator und den Internet Explorer bildete. Die Stanford Federal Credit Union war das erste Finanzinstitut, das im Oktober 1994 allen seinen Mitgliedern Online-Internetbanking-Dienste anbot. Die OP Financial Group, ebenfalls eine Genossenschaftsbank, war 1996 die zweite Online-Bank der Welt und die erste in Europa. Das Internet verbreitete sich schnell, und bereits 1996 war es Teil der Massenkultur, und viele Unternehmen führten Websites in ihren Anzeigen auf. Bis 1999 hatte fast jedes Land einen Anschluss, und fast die Hälfte der Amerikaner und Menschen in mehreren anderen Ländern nutzten das Internet regelmäßig. In den 1990er Jahren war das „ins Netz gehen“ jedoch mit einer komplizierten Konfiguration verbunden, und die Einwahl war die einzige Verbindungsart, die sich der einzelne Nutzer leisten konnte; die heutige Internet-Massenkultur war nicht möglich.
Im Jahr 1989 besaßen etwa 15 % aller Haushalte in den Vereinigten Staaten einen PC, im Jahr 2000 waren es bereits 51 %; von den Haushalten mit Kindern besaßen 1989 fast 30 % einen Computer, im Jahr 2000 waren es 65 %.
Handys wurden Anfang der 2000er Jahre ebenso allgegenwärtig wie Computer, und in Kinos wurde damit begonnen, Werbung zu zeigen, die die Leute aufforderte, ihre Telefone stumm zu schalten. Sie waren auch viel fortschrittlicher als die Telefone der 1990er Jahre, von denen die meisten nur Anrufe entgegennahmen oder höchstens das Spielen einfacher Spiele ermöglichten.
Textnachrichten gab es bereits in den 1990er Jahren, wurden aber erst in den frühen 2000er Jahren weit verbreitet, als sie zu einem kulturellen Phänomen wurden.
Die digitale Revolution wurde in dieser Zeit auch wirklich global – nachdem sie in den 1990er Jahren die Gesellschaft in den Industrieländern revolutioniert hatte, breitete sie sich in den 2000er Jahren auf die Massen in den Entwicklungsländern aus.
2005-heute: Web 2.0, soziale Medien, SmartphonesBearbeiten
Ende 2005 erreichte die Internetbevölkerung 1 Milliarde Menschen, und bis zum Ende des Jahrzehnts nutzten 3 Milliarden Menschen weltweit Mobiltelefone. HDTV wurde bis zum Ende des Jahrzehnts in vielen Ländern zum Standardformat für Fernsehübertragungen.
Im Jahr 2012 nutzten über 2 Milliarden Menschen das Internet, doppelt so viele wie im Jahr 2007. Anfang der 2010er Jahre hatte sich das Cloud-Computing durchgesetzt. Im Jahr 2016 war die Hälfte der Weltbevölkerung vernetzt, und bis 2020 wird diese Zahl auf 67 % steigen.