Breve storiaModifica
La tecnologia sottostante fu inventata nell’ultimo quarto del XIX secolo, incluso il motore analitico di Babbage e il telegrafo. La comunicazione digitale divenne economica per l’adozione diffusa dopo l’invenzione del personal computer. Claude Shannon, un matematico dei Bell Labs, è accreditato per aver posto le basi della digitalizzazione nel suo articolo pionieristico del 1948, A Mathematical Theory of Communication. La rivoluzione digitale ha convertito la tecnologia dal formato analogico al formato digitale. Facendo questo, divenne possibile fare copie che erano identiche all’originale. Nelle comunicazioni digitali, per esempio, l’hardware ripetitore era in grado di amplificare il segnale digitale e trasmetterlo senza perdita di informazioni nel segnale. Di uguale importanza per la rivoluzione fu la capacità di spostare facilmente l’informazione digitale tra i media, e di accedervi o distribuirla a distanza.
Il punto di svolta della rivoluzione fu il passaggio dalla musica analogica a quella registrata digitalmente. Nel corso degli anni ’80 il formato digitale dei compact disc ottici ha gradualmente sostituito i formati analogici, come i dischi in vinile e le cassette, come mezzo popolare di scelta.
1947-1969: OriginiModifica
Nel 1947, il primo transistor funzionante, il transistor point-contact basato sul germanio, fu inventato da John Bardeen e Walter Houser Brattain mentre lavoravano sotto William Shockley ai Bell Labs. Questo ha aperto la strada a computer digitali più avanzati. Dalla fine degli anni ’40, università, militari e aziende svilupparono sistemi informatici per replicare digitalmente e automatizzare calcoli matematici precedentemente eseguiti manualmente, con il LEO che fu il primo computer di uso generale disponibile in commercio.
Altri importanti sviluppi tecnologici furono l’invenzione del chip monolitico a circuito integrato da parte di Robert Noyce alla Fairchild Semiconductor nel 1959 (reso possibile dal processo planare sviluppato da Jean Hoerni), il primo transistor ad effetto di campo a semiconduttore metallo-ossido (MOSFET, o transistor MOS) di Mohamed Atalla e Dawon Kahng ai Bell Labs nel 1959, e lo sviluppo del processo MOS complementare (CMOS) da Frank Wanlass e Chih-Tang Sah alla Fairchild nel 1963.
Seguendo lo sviluppo dei chip a circuito integrato MOS nei primi anni ’60, i chip MOS raggiunsero una maggiore densità di transistor e costi di produzione inferiori rispetto ai circuiti integrati bipolari entro il 1964. I chip MOS aumentarono ulteriormente in complessità al ritmo previsto dalla legge di Moore, portando all’integrazione su larga scala (LSI) con centinaia di transistor su un singolo chip MOS entro la fine degli anni ’60. L’applicazione dei chip MOS LSI all’informatica fu la base per i primi microprocessori, poiché gli ingegneri cominciarono a riconoscere che un processore di computer completo poteva essere contenuto in un singolo chip MOS LSI. Nel 1968, l’ingegnere di Fairchild Federico Faggin migliorò la tecnologia MOS con il suo sviluppo del chip MOS silicon-gate, che poi utilizzò per sviluppare l’Intel 4004, il primo microprocessore a singolo chip. Fu rilasciato da Intel nel 1971, e pose le basi per la rivoluzione dei microcomputer che iniziò negli anni ’70.
La tecnologia MOS portò anche allo sviluppo di sensori di immagine a semiconduttore adatti alle fotocamere digitali. Il primo sensore d’immagine di questo tipo fu il dispositivo ad accoppiamento di carica, sviluppato da Willard S. Boyle e George E. Smith ai Bell Labs nel 1969, basato sulla tecnologia dei condensatori MOS.
1969-1989: Invenzione di Internet, ascesa degli home computerModifica
Il pubblico fu introdotto per la prima volta ai concetti che hanno portato a Internet quando fu inviato un messaggio su ARPANET nel 1969. Le reti a commutazione di pacchetto come ARPANET, Mark I, CYCLADES, Merit Network, Tymnet e Telenet, furono sviluppate alla fine degli anni ’60 e all’inizio degli anni ’70 usando una varietà di protocolli. ARPANET in particolare portò allo sviluppo di protocolli per l’internetworking, in cui più reti separate potevano essere unite in una rete di reti.
Il movimento Whole Earth degli anni ’60 sostenne l’uso di nuove tecnologie.
Negli anni ’70, fu introdotto l’home computer, i computer time-sharing, la console per videogiochi, i primi videogiochi a gettoni e l’età d’oro dei videogiochi arcade iniziò con Space Invaders. Con la proliferazione della tecnologia digitale e il passaggio dall’analogico al digitale divenne il nuovo standard nel mondo degli affari, si diffuse una figura professionale relativamente nuova, l’impiegato addetto all’inserimento dati. Raccolto dai ranghi delle segretarie e delle dattilografe dei decenni precedenti, il lavoro dell’addetto all’inserimento dati era quello di convertire i dati analogici (registri dei clienti, fatture, ecc.) in dati digitali.
Nelle nazioni sviluppate, i computer raggiunsero una semi-ubiquità durante gli anni ’80, facendosi strada nelle scuole, nelle case, negli affari e nell’industria. Sportelli automatici, robot industriali, CGI nel cinema e nella televisione, musica elettronica, sistemi di bacheche e videogiochi hanno alimentato quello che è diventato lo zeitgeist degli anni Ottanta. Milioni di persone acquistarono home computer, rendendo famosi i primi produttori di personal computer come Apple, Commodore e Tandy. Ad oggi il Commodore 64 è spesso citato come il computer più venduto di tutti i tempi, avendo venduto 17 milioni di unità (secondo alcuni conti) tra il 1982 e il 1994.
Nel 1984, l’Ufficio del Censimento degli Stati Uniti ha iniziato a raccogliere dati sull’uso del computer e di Internet negli Stati Uniti; la loro prima indagine ha mostrato che l’8.2% di tutte le famiglie statunitensi possedeva un personal computer nel 1984, e che le famiglie con bambini sotto i 18 anni avevano quasi il doppio delle probabilità di possederne uno, al 15,3% (le famiglie della classe media e medio-alta erano le più propense a possederne uno, al 22,9%). Nel 1989, il 15% di tutte le famiglie statunitensi possedeva un computer, e quasi il 30% delle famiglie con bambini sotto i 18 anni ne possedeva uno. Alla fine degli anni ’80, molte aziende dipendevano dai computer e dalla tecnologia digitale.
Motorola ha creato il primo telefono cellulare, Motorola DynaTac, nel 1983. Tuttavia, questo dispositivo utilizzava la comunicazione analogica – i telefoni cellulari digitali non furono venduti commercialmente fino al 1991, quando la rete 2G iniziò ad essere aperta in Finlandia per accogliere l’inaspettata domanda di telefoni cellulari che stava diventando evidente alla fine degli anni ’80.
La rivista Compute! predisse che il CD-ROM sarebbe stato il fulcro della rivoluzione, con molteplici dispositivi domestici che leggevano i dischi.
La prima vera fotocamera digitale fu creata nel 1988, e le prime furono commercializzate nel dicembre 1989 in Giappone e nel 1990 negli Stati Uniti. A metà degli anni 2000, avevano eclissato la pellicola tradizionale in popolarità.
Anche l’inchiostro digitale fu inventato alla fine degli anni 1980. Il sistema CAPS della Disney (creato nel 1988) è stato usato per una scena de La Sirenetta del 1989 e per tutti i loro film d’animazione tra The Rescuers Down Under del 1990 e Home on the Range del 2004.
1989-2005: Invenzione del World Wide Web, mainstreaming di Internet, Web 1.0Edit
Tim Berners-Lee inventa il World Wide Web nel 1989.
La prima trasmissione digitale HDTV pubblica fu quella dei Mondiali di calcio del 1990 in giugno; fu trasmessa in 10 teatri in Spagna e Italia. Tuttavia, l’HDTV non divenne uno standard fino alla metà degli anni 2000 al di fuori del Giappone.
Il World Wide Web divenne accessibile al pubblico nel 1991, che era stato disponibile solo al governo e alle università. Nel 1993 Marc Andreessen e Eric Bina introdussero Mosaic, il primo browser web capace di visualizzare immagini in linea e la base per i browser successivi come Netscape Navigator e Internet Explorer. La Stanford Federal Credit Union è stata la prima istituzione finanziaria ad offrire servizi di internet banking online a tutti i suoi membri nell’ottobre 1994. Nel 1996 OP Financial Group, anche una banca cooperativa, divenne la seconda banca online nel mondo e la prima in Europa. Internet si espanse rapidamente, e nel 1996 faceva parte della cultura di massa e molte aziende elencavano i siti web nei loro annunci. Nel 1999 quasi ogni paese aveva una connessione, e quasi la metà degli americani e la gente di molti altri paesi usava Internet regolarmente. Tuttavia, per tutti gli anni ’90, “essere online” comportava una configurazione complicata, e il dial-up era l’unico tipo di connessione accessibile ai singoli utenti; l’attuale cultura di massa di Internet non era possibile.
Nel 1989 circa il 15% di tutte le famiglie negli Stati Uniti possedeva un personal computer, nel 2000 questo era salito al 51%; per le famiglie con bambini quasi il 30% possedeva un computer nel 1989, e nel 2000 il 65% ne possedeva uno.
I telefoni cellulari sono diventati onnipresenti come i computer nei primi anni 2000, e i cinema hanno iniziato a mostrare pubblicità che dicevano alla gente di mettere a tacere i loro telefoni. Sono anche diventati molto più avanzati dei telefoni degli anni ’90, la maggior parte dei quali rispondeva solo alle chiamate o al massimo permetteva di giocare a semplici giochi.
I messaggi di testo esistevano negli anni ’90 ma non erano molto usati fino ai primi anni 2000, quando sono diventati un fenomeno culturale.
La rivoluzione digitale è diventata veramente globale in questo periodo – dopo aver rivoluzionato la società del mondo sviluppato negli anni ’90, la rivoluzione digitale si è diffusa alle masse del mondo in via di sviluppo negli anni 2000.
2005-oggi: Web 2.0, social media, smartphoneModifica
Nella fine del 2005 la popolazione di Internet ha raggiunto 1 miliardo, e 3 miliardi di persone in tutto il mondo hanno usato telefoni cellulari entro la fine del decennio. L’HDTV è diventato il formato standard di trasmissione televisiva in molti paesi entro la fine del decennio.
Nel 2012, oltre 2 miliardi di persone hanno usato Internet, il doppio del numero che lo usava nel 2007. Il cloud computing è entrato nel mainstream all’inizio del 2010. Nel 2016, metà della popolazione mondiale era connessa e nel 2020, questo numero è salito al 67%.