Breve históriaEditar
A tecnologia subjacente foi inventada no último quarto do século XIX, incluindo o Motor Analítico de Babbage e o telégrafo. A comunicação digital tornou-se econômica para adoção generalizada após a invenção do computador pessoal. Claude Shannon, um matemático da Bell Labs, é creditado por ter lançado as bases da digitalização em seu artigo pioneiro de 1948, A Mathematical Theory of Communication. A revolução digital converteu a tecnologia do formato analógico para o formato digital. Ao fazer isso, tornou-se possível fazer cópias que eram idênticas ao original. Nas comunicações digitais, por exemplo, a repetição de hardware foi capaz de amplificar o sinal digital e passá-lo adiante sem perda de informação no sinal. De igual importância para a revolução foi a capacidade de mover facilmente a informação digital entre suportes e aceder ou distribuí-la remotamente.
O ponto de viragem da revolução foi a mudança do analógico para a música gravada digitalmente. Durante os anos 80, o formato digital dos discos compactos ópticos substituiu gradualmente os formatos analógicos, tais como discos de vinil e fitas cassete, como o meio popular de escolha.
1947-1969: OriginsEdit
Em 1947, o primeiro transistor de trabalho, o transistor de ponto de contacto baseado em germânio, foi inventado por John Bardeen e Walter Houser Brattain enquanto trabalhavam sob William Shockley no Bell Labs. Isto levou a computadores digitais mais avançados. A partir do final dos anos 40, universidades, militares e empresas desenvolveram sistemas de computador para replicar digitalmente e automatizar cálculos matemáticos previamente realizados manualmente, sendo o LEO o primeiro computador de uso geral disponível comercialmente.
Outros importantes desenvolvimentos tecnológicos incluíram a invenção do chip de circuito integrado monolítico por Robert Noyce na Fairchild Semiconductor em 1959 (tornado possível pelo processo planar desenvolvido por Jean Hoerni), o primeiro transistor de efeito de campo metal-oxido-semicondutor de sucesso (MOSFET, ou transistor MOS) por Mohamed Atalla e Dawon Kahng na Bell Labs em 1959, e o desenvolvimento do processo complementar MOS (CMOS) por Frank Wanlass e Chih-Tang Sah na Fairchild em 1963.
Na sequência do desenvolvimento dos chips de circuitos integrados MOS no início dos anos 60, os chips MOS atingiram uma maior densidade de transistor e custos de fabricação mais baixos do que os circuitos integrados bipolares em 1964. Os chips MOS aumentaram ainda mais em complexidade a um ritmo previsto pela lei de Moore, levando à integração em larga escala (LSI) com centenas de transistores em um único chip MOS até o final dos anos 60. A aplicação de chips MOS LSI em computação foi a base para os primeiros microprocessadores, pois os engenheiros começaram a reconhecer que um processador de computador completo poderia ser contido em um único chip MOS LSI. Em 1968, o engenheiro da Fairchild Federico Faggin melhorou a tecnologia MOS com o seu desenvolvimento do chip MOS silicon-gate, que mais tarde utilizou para desenvolver o Intel 4004, o primeiro microprocessador de chip único. Foi lançado pela Intel em 1971, e lançou as bases para a revolução dos microcomputadores que começou nos anos 70.
A tecnologia MOS também levou ao desenvolvimento de sensores de imagem semicondutores adequados para câmeras digitais. O primeiro desses sensores de imagem foi o dispositivo acoplado à carga, desenvolvido por Willard S. Boyle e George E. Smith no Bell Labs em 1969, baseado na tecnologia de condensadores MOS.
1969-1989: Invenção da Internet, ascensão dos computadores domésticosEdit
O público foi apresentado pela primeira vez aos conceitos que levaram à Internet quando uma mensagem foi enviada através da ARPANET em 1969. Redes comutadas por pacotes como ARPANET, Mark I, CYCLADES, Merit Network, Tymnet e Telenet, foram desenvolvidas no final dos anos 60 e início dos anos 70, utilizando uma variedade de protocolos. A ARPANET, em particular, levou ao desenvolvimento de protocolos para o trabalho na Internet, nos quais várias redes separadas podiam ser unidas em uma rede de redes.
O movimento Toda a Terra dos anos 60 defendeu o uso de nova tecnologia.
Nos anos 70, o computador doméstico foi introduzido, os computadores de tempo compartilhado, o console de videogame, os primeiros videogames com moeda aberta, e a era dourada dos videogames arcade começou com Space Invaders. Como a tecnologia digital proliferou, e a mudança da manutenção de registros analógicos para digitais tornou-se o novo padrão nos negócios, uma descrição relativamente nova do trabalho foi popularizada, o funcionário de entrada de dados. Eliminado das fileiras de secretárias e digitadores das décadas anteriores, o trabalho do encarregado da entrada de dados era converter dados analógicos (registros de clientes, faturas, etc.) em dados digitais.
Em nações desenvolvidas, os computadores alcançaram a semi-ubiquidade durante os anos 80, quando entraram em escolas, casas, empresas e indústrias. As caixas automáticas, robôs industriais, CGI em cinema e televisão, música eletrônica, sistemas de quadro de avisos e videogames, tudo isso alimentou o que se tornou o zeitgeist dos anos 80. Milhões de pessoas compraram computadores domésticos, fazendo nomes familiares dos primeiros fabricantes de computadores pessoais, como Apple, Commodore e Tandy. Até hoje o Commodore 64 é frequentemente citado como o computador mais vendido de todos os tempos, tendo vendido 17 milhões de unidades (por algumas contas) entre 1982 e 1994.
Em 1984, o U.S. Census Bureau começou a coletar dados sobre o uso de computadores e internet nos Estados Unidos; sua primeira pesquisa mostrou que 8.2% de todas as famílias americanas possuíam um computador pessoal em 1984, e que as famílias com crianças menores de 18 anos tinham quase o dobro da probabilidade de possuir um, com 15,3% (as famílias de classe média e média alta eram as mais propensas a possuir um, com 22,9%). Em 1989, 15% de todos os lares americanos possuíam um computador, e quase 30% dos lares com crianças menores de 18 anos possuíam um computador. No final dos anos 80, muitas empresas estavam dependentes de computadores e tecnologia digital.
Motorola criou o primeiro telefone celular, Motorola DynaTac, em 1983. Entretanto, este dispositivo usava comunicação analógica – telefones celulares digitais não eram vendidos comercialmente até 1991, quando a rede 2G começou a ser aberta na Finlândia para acomodar a inesperada demanda por telefones celulares que estava se tornando aparente no final dos anos 80.
A revista Computer! previu que o CD-ROM seria a peça central da revolução, com múltiplos dispositivos domésticos lendo os discos.
A primeira câmera digital verdadeira foi criada em 1988, e as primeiras foram comercializadas em dezembro de 1989 no Japão e em 1990 nos Estados Unidos. Em meados dos anos 2000, eles tinham eclipsado o filme tradicional em popularidade.
A tinta digital também foi inventada no final dos anos 80. O sistema CAPS da Disney (criado em 1988) foi usado para uma cena no filme The Little Mermaid de 1989 e para todos os seus filmes de animação entre 1990’s The Rescuers Down Under e 2004’s Home on the Range.
1989-2005: Invenção da World Wide Web, mainstreaming da Internet, Web 1.0Edit
Tim Berners-Lee inventou a World Wide Web em 1989.
A primeira emissão pública de HDTV digital foi do Campeonato do Mundo de 1990 em Junho; foi jogada em 10 teatros em Espanha e Itália. Entretanto, a HDTV não se tornou um padrão até meados dos anos 2000 fora do Japão.
A World Wide Web tornou-se acessível ao público em 1991, que só estava disponível para o governo e universidades. Em 1993 Marc Andreessen e Eric Bina introduziram o Mosaic, o primeiro navegador web capaz de exibir imagens em linha e a base para navegadores posteriores como o Netscape Navigator e o Internet Explorer. A Stanford Federal Credit Union foi a primeira instituição financeira a oferecer serviços bancários pela Internet a todos os seus membros em Outubro de 1994. Em 1996 a OP Financial Group, também um banco cooperativo, tornou-se o segundo banco online do mundo e o primeiro da Europa. A Internet expandiu-se rapidamente, e em 1996, fazia parte da cultura de massa e muitos negócios listaram websites em seus anúncios. Em 1999 quase todos os países tinham uma conexão, e quase metade dos americanos e das pessoas em vários outros países usavam a Internet regularmente. No entanto, ao longo da década de 1990, “ficar on-line” implicava uma configuração complicada, e o acesso discado era o único tipo de conexão acessível aos usuários individuais; a cultura atual da internet de massa não era possível.
Em 1989, cerca de 15% de todos os lares nos Estados Unidos possuíam um computador pessoal, em 2000, isto era até 51%; para lares com crianças, quase 30% possuíam um computador em 1989, e em 2000, 65% possuíam um.
Os telefones celulares se tornaram tão onipresentes quanto os computadores no início dos anos 2000, com os cinemas começando a mostrar anúncios dizendo às pessoas para silenciar seus telefones. Eles também se tornaram muito mais avançados que os telefones dos anos 90, a maioria dos quais só atendia chamadas ou, no máximo, permitia o jogo de jogos simples.
As mensagens de texto existiam nos anos 90, mas não eram amplamente utilizadas até o início dos anos 2000, quando se tornou um fenômeno cultural.
A revolução digital também se tornou verdadeiramente global nesta época – depois de revolucionar a sociedade no mundo desenvolvido nos anos 90, a revolução digital se espalhou para as massas no mundo em desenvolvimento nos anos 2000.
2005-presente: Web 2.0, redes sociais, smartphonesEdit
No final de 2005, a população da Internet atingiu 1 bilhão, e 3 bilhões de pessoas em todo o mundo usaram telefones celulares até o final da década. A HDTV tornou-se o formato padrão de transmissão de televisão em muitos países no final da década.
Até 2012, mais de 2 bilhões de pessoas usaram a Internet, o dobro do número de pessoas que a usaram em 2007. A computação em nuvem tinha entrado no mainstream no início da década de 2010. Em 2016, metade da população mundial estava conectada e, a partir de 2020, esse número subiu para 67%.