Rewolucja cyfrowa

Pierścienie czasu pokazujące niektóre ważne daty w Rewolucji Cyfrowej od 1968 do 2017 roku

Krótka historiaEdit

Podstawowa technologia została wynaleziona w późniejszym ćwierćwieczu XIX wieku, w tym silnik analityczny Babbage’a i telegraf. Komunikacja cyfrowa stała się opłacalna do powszechnego stosowania po wynalezieniu komputera osobistego. Claude Shannon, matematyk z Bell Labs, jest uznawany za twórcę podstaw cyfryzacji w swoim pionierskim artykule z 1948 r. A Mathematical Theory of Communication (Matematyczna teoria komunikacji). Rewolucja cyfrowa przekształciła technologię z formatu analogowego na format cyfrowy. Dzięki temu możliwe stało się tworzenie kopii, które byłyby identyczne z oryginałem. W komunikacji cyfrowej, na przykład, powtarzający się sprzęt był w stanie wzmocnić sygnał cyfrowy i przekazać go dalej bez utraty informacji w sygnale. Równie ważna dla rewolucji była możliwość łatwego przenoszenia informacji cyfrowej pomiędzy mediami oraz zdalnego dostępu lub dystrybucji.

Punktem zwrotnym rewolucji była zmiana z analogowej na cyfrowo zapisaną muzykę. W latach 80. format cyfrowy optycznych dysków kompaktowych stopniowo zastępował formaty analogowe, takie jak płyty winylowe i kasety magnetofonowe, jako popularne nośniki wyboru.

1947-1969: OriginsEdit

W 1947 roku pierwszy działający tranzystor, oparty na germanie tranzystor punktowy, został wynaleziony przez Johna Bardeena i Waltera Housera Brattaina podczas pracy pod kierownictwem Williama Shockleya w Bell Labs. To otworzyło drogę do bardziej zaawansowanych komputerów cyfrowych. Od późnych lat 40. uniwersytety, wojsko i firmy opracowywały systemy komputerowe do cyfrowej replikacji i automatyzacji wcześniej wykonywanych ręcznie obliczeń matematycznych, a LEO był pierwszym komercyjnie dostępnym komputerem ogólnego przeznaczenia.

Inne ważne osiągnięcia technologiczne obejmowały wynalezienie monolitycznego układu scalonego przez Roberta Noyce’a w Fairchild Semiconductor w 1959 roku (możliwe dzięki procesowi planarnemu opracowanemu przez Jeana Hoerniego), pierwszy udany tranzystor polowy MOSFET (MOSFET lub tranzystor MOS) przez Mohameda Atallę i Dawona Kahnga w Bell Labs w 1959 roku oraz opracowanie komplementarnego procesu MOS (CMOS) przez Franka Wanlassa i Chih-Tang Saha w Fairchild w 1963 roku.

W następstwie rozwoju układów scalonych MOS na początku lat 60-tych, układy MOS osiągnęły wyższą gęstość tranzystorów i niższe koszty produkcji niż bipolarne układy scalone do 1964 roku. Układy MOS dalej rosły w złożoności w tempie przewidywanym przez prawo Moore’a, prowadząc do integracji na dużą skalę (LSI) z setkami tranzystorów na pojedynczym układzie MOS do końca lat 60-tych. Zastosowanie układów MOS LSI do obliczeń stało się podstawą do stworzenia pierwszych mikroprocesorów, ponieważ inżynierowie zaczęli zdawać sobie sprawę, że na pojedynczym układzie MOS LSI można zmieścić kompletny procesor komputerowy. W 1968 r. inżynier Fairchild, Federico Faggin, udoskonalił technologię MOS, opracowując układ MOS z bramką krzemową, który później wykorzystał do stworzenia Intel 4004, pierwszego mikroprocesora jednoukładowego. Został on wydany przez firmę Intel w 1971 roku i położył podwaliny pod rewolucję mikrokomputerową, która rozpoczęła się w latach 70-tych.

Technologia MOS doprowadziła również do opracowania półprzewodnikowych czujników obrazu odpowiednich dla aparatów cyfrowych. Pierwszym takim czujnikiem obrazu było urządzenie charge-coupled device, opracowane przez Willarda S. Boyle’a i George’a E. Smitha w Bell Labs w 1969 roku, oparte na technologii kondensatorów MOS.

1969-1989: Wynalezienie Internetu, powstanie komputerów domowychEdit

Społeczeństwo zostało po raz pierwszy wprowadzone do koncepcji, które doprowadziły do powstania Internetu, gdy wiadomość została wysłana przez ARPANET w 1969 roku. Sieci z komutacją pakietów, takie jak ARPANET, Mark I, CYCLADES, Merit Network, Tymnet i Telenet, zostały opracowane w późnych latach 60. i wczesnych 70. przy użyciu różnych protokołów. ARPANET w szczególności doprowadził do rozwoju protokołów dla Internetworking, w którym wiele oddzielnych sieci mogą być połączone w sieć sieci.

Ruch Whole Earth z lat 60-tych opowiedział się za wykorzystaniem nowych technologii.

W latach 70-tych, komputer domowy został wprowadzony, komputery dzielenia czasu, konsola do gier wideo, pierwsze gry wideo na monety, a złoty wiek gier wideo arcade rozpoczął Space Invaders. W miarę rozprzestrzeniania się technologii cyfrowej, a przejście z analogowego na cyfrowe prowadzenie dokumentacji stało się nowym standardem w biznesie, spopularyzowano stosunkowo nowy opis stanowiska pracy – urzędnik do spraw wprowadzania danych. Wywodzący się z szeregów sekretarek i maszynistek z wcześniejszych dekad, urzędnik zajmujący się wprowadzaniem danych miał za zadanie przekształcać dane analogowe (zapisy klientów, faktury itp.) w dane cyfrowe.

W krajach rozwiniętych, komputery osiągnęły półpowszechność w latach 80-tych, kiedy to utorowały sobie drogę do szkół, domów, biznesu i przemysłu. Zautomatyzowane bankomaty, roboty przemysłowe, CGI w filmie i telewizji, muzyka elektroniczna, systemy tablic ogłoszeniowych i gry wideo napędzały to, co stało się zeitgeistem lat 80. Miliony ludzi kupowało komputery domowe, dzięki czemu producenci komputerów osobistych, tacy jak Apple, Commodore i Tandy, stali się sławni. Do dziś Commodore 64 jest często cytowany jako najlepiej sprzedający się komputer wszechczasów, który sprzedał się w liczbie 17 milionów sztuk (według niektórych rachunków) w latach 1982-1994.

W 1984 roku, U.S. Census Bureau zaczęło zbierać dane na temat korzystania z komputera i Internetu w Stanach Zjednoczonych; ich pierwsze badanie wykazało, że 8.2% wszystkich amerykańskich gospodarstw domowych posiadało komputer osobisty w 1984 roku, a gospodarstwa domowe z dziećmi poniżej 18 roku życia były prawie dwukrotnie bardziej prawdopodobne, aby posiadać jeden na 15,3% (średnie i górne gospodarstwa domowe klasy średniej były najbardziej prawdopodobne, aby posiadać jeden, na 22,9%). Do 1989 roku 15% wszystkich amerykańskich gospodarstw domowych posiadało komputer, a prawie 30% gospodarstw domowych z dziećmi poniżej 18 roku życia posiadało taki komputer. Do końca lat 80. wiele firm było uzależnionych od komputerów i technologii cyfrowej.

Motorola stworzyła pierwszy telefon komórkowy, Motorola DynaTac, w 1983 roku. Jednak urządzenie to wykorzystywało komunikację analogową – cyfrowe telefony komórkowe nie były sprzedawane komercyjnie aż do 1991 roku, kiedy w Finlandii zaczęto otwierać sieć 2G, aby zaspokoić nieoczekiwany popyt na telefony komórkowe, który uwidocznił się pod koniec lat osiemdziesiątych.

Compute! magazine przewidywał, że CD-ROM będzie centralnym punktem rewolucji, z wieloma urządzeniami domowymi odczytującymi dyski.

Pierwszy prawdziwy aparat cyfrowy powstał w 1988 roku, a pierwsze zostały wprowadzone na rynek w grudniu 1989 roku w Japonii i w 1990 roku w Stanach Zjednoczonych. Do połowy XXI wieku przyćmiły one popularnością tradycyjny film.

Cyfrowy atrament został również wynaleziony w późnych latach 80. System CAPS firmy Disney (stworzony w 1988 r.) został wykorzystany do sceny w filmie Mała syrenka z 1989 r. oraz we wszystkich filmach animowanych między filmem Ratownicy w podziemiu z 1990 r. a filmem Dom na wyciągnięcie ręki z 2004 r.

1989-2005: Wynalezienie World Wide Web, mainstreaming Internetu, Web 1.0Edit

Tim Berners-Lee wynalazł World Wide Web w 1989 roku.

Pierwsza publiczna cyfrowa transmisja HDTV dotyczyła mistrzostw świata w piłce nożnej w 1990 roku w czerwcu tego roku; była odtwarzana w 10 kinach w Hiszpanii i Włoszech. Jednak HDTV nie stał się standardem aż do połowy 2000 roku poza Japonią.

The World Wide Web stał się publicznie dostępny w 1991 roku, który był dostępny tylko dla rządu i uniwersytetów. W 1993 roku Marc Andreessen i Eric Bina wprowadzili Mosaic, pierwszą przeglądarkę internetową zdolną do wyświetlania obrazów inline i podstawę dla późniejszych przeglądarek, takich jak Netscape Navigator i Internet Explorer. Stanford Federal Credit Union była pierwszą instytucją finansową, która w październiku 1994 roku zaoferowała wszystkim swoim członkom usługi bankowości internetowej. W 1996 roku OP Financial Group, również bank spółdzielczy, stał się drugim bankiem internetowym na świecie i pierwszym w Europie. Internet szybko się rozwijał i już w 1996 roku stał się częścią kultury masowej, a wiele firm podawało strony internetowe w swoich reklamach. Do 1999 r. prawie każdy kraj posiadał łącze, a prawie połowa Amerykanów i mieszkańców kilku innych krajów regularnie korzystała z Internetu. Jednak w latach 90-tych „wejście do sieci” wiązało się ze skomplikowaną konfiguracją, a dial-up był jedynym rodzajem połączenia dostępnym dla indywidualnych użytkowników; dzisiejsza masowa kultura Internetu nie była możliwa.

W 1989 roku około 15% wszystkich gospodarstw domowych w Stanach Zjednoczonych posiadało komputer osobisty, do 2000 roku było to do 51%; dla gospodarstw domowych z dziećmi prawie 30% posiadało komputer w 1989 roku, a w 2000 roku 65% posiadało jeden.

Telefony komórkowe stały się tak wszechobecne jak komputery na początku lat 2000, z kinami zaczynając pokazywać reklamy mówiące ludziom, aby wyciszyć swoje telefony. Stały się one również znacznie bardziej zaawansowane niż telefony z lat 90-tych, z których większość tylko odbierała połączenia lub co najwyżej pozwalała na granie w proste gry.

Wiadomości tekstowe istniały w latach 90-tych, ale nie były powszechnie używane aż do wczesnych lat 2000, kiedy to stały się zjawiskiem kulturowym.

Rewolucja cyfrowa stała się prawdziwie globalna w tym czasie, jak również – po zrewolucjonizowaniu społeczeństwa w krajach rozwiniętych w latach 90-tych, rewolucja cyfrowa rozprzestrzeniła się na masy w krajach rozwijających się w latach 2000.

2005-obecnie: Web 2.0, media społecznościowe, smartfonyEdit

Pod koniec 2005 roku populacja Internetu osiągnęła 1 miliard, a 3 miliardy ludzi na całym świecie używało telefonów komórkowych do końca dekady. HDTV stał się standardowym formatem nadawania telewizji w wielu krajach do końca dekady.

Do 2012 roku ponad 2 miliardy ludzi korzystało z Internetu, dwa razy więcej niż w 2007 roku. Chmury obliczeniowe weszły do głównego nurtu na początku 2010 roku. Do 2016 r. połowa ludności świata była podłączona, a w 2020 r. liczba ta wzrośnie do 67%.

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.