Aquisição de IA

Vantagens da inteligência sobre-humana sobre os humanosEditar

Nick Bostrom e outros expressaram preocupação que uma IA com as habilidades de um pesquisador de inteligência artificial competente seria capaz de modificar seu próprio código fonte e aumentar sua própria inteligência. Se a sua auto-reprogramação levar a que se torne ainda melhor em ser capaz de se reprogramar, o resultado poderia ser uma explosão recursiva de inteligência onde rapidamente deixaria a inteligência humana muito para trás. Bostrom define uma superinteligência como “qualquer intelecto que exceda em muito o desempenho cognitivo dos humanos em praticamente todos os domínios de interesse”, e enumera algumas vantagens que uma superinteligência teria se escolhesse competir contra os humanos:

  • Pesquisa tecnológica: Uma máquina com capacidades de investigação científica sobre-humana seria capaz de vencer a comunidade de investigação humana em marcos como a nanotecnologia ou a biotecnologia avançada. Se a vantagem se torna suficientemente grande (por exemplo, devido a uma súbita explosão de inteligência), uma aquisição de IA torna-se trivial. Por exemplo, uma IA superinteligente pode projetar robôs auto-replicáveis que inicialmente escapam da detecção, difundindo-se pelo mundo a uma baixa concentração. Então, em um tempo pré-determinado, os bots se multiplicam em nanofábricas que cobrem cada metro quadrado da Terra, produzindo gás nervoso ou mini-drones mortíferos em busca de alvos.
  • Estrategizando: Uma superinteligência pode ser capaz de simplesmente superar a oposição humana.
  • Manipulação social: Uma super-inteligência pode ser capaz de recrutar apoio humano, ou incitar secretamente uma guerra entre humanos.
  • Produtividade económica: Desde que uma cópia da IA pudesse produzir mais riqueza económica do que o custo do seu hardware, os humanos individuais teriam um incentivo para permitir voluntariamente que a Inteligência Geral Artificial (AGI) fizesse uma cópia de si mesma nos seus sistemas.
  • Hacking: Uma superinteligência poderia encontrar novas explorações em computadores conectados à Internet, e espalhar cópias de si mesma para esses sistemas, ou poderia roubar dinheiro para financiar seus planos.

Fontes da vantagem da IAEditar

De acordo com Bostrom, um programa de computador que emula fielmente um cérebro humano, ou que executa algoritmos que são igualmente poderosos como os algoritmos do cérebro humano, ainda pode se tornar uma “superinteligência de velocidade” se ele puder pensar muitas ordens de magnitude mais rápido que um humano, devido a ser feito de silício ao invés de carne, ou devido à otimização focada em aumentar a velocidade do AGI. Os neurônios biológicos operam a cerca de 200 Hz, enquanto um microprocessador moderno opera a uma velocidade de cerca de 2.000.000.000.000 Hz. Os axônios humanos carregam potenciais de ação em torno de 120 m/s, enquanto os sinais de computador viajam perto da velocidade da luz.

Uma rede de inteligências de nível humano projetada para trabalhar em rede e compartilhar pensamentos e memórias complexas sem problemas, capaz de trabalhar coletivamente como uma equipe unificada gigante sem fricção, ou consistindo de trilhões de inteligências de nível humano, tornar-se-ia uma “superinteligência coletiva”.

De uma forma mais ampla, qualquer número de melhorias qualitativas a um AGI a nível humano poderia resultar numa “superinteligência de qualidade”, talvez resultando num AGI tão acima de nós em inteligência como os humanos estão acima dos macacos não humanos. O número de neurônios em um cérebro humano é limitado pelo volume craniano e restrições metabólicas, enquanto o número de processadores em um supercomputador pode ser indefinidamente expandido. Um AGI não precisa ser limitado por restrições humanas na memória de trabalho, e pode, portanto, ser capaz de compreender intuitivamente relações mais complexas do que os humanos podem. Um AGI com suporte cognitivo especializado para engenharia ou programação de computadores teria uma vantagem nestes campos, em comparação com humanos que não desenvolveram módulos mentais especializados para lidar especificamente com estes domínios. Ao contrário dos humanos, um AGI pode gerar cópias de si mesmo e mexer no código fonte de suas cópias para tentar melhorar ainda mais seus algoritmos.

Possibilidade de IA não amigável antes do amigável AIEdit

É a IA forte inerentemente perigosa?Edit

Um problema significativo é que a inteligência artificial não amigável é provavelmente muito mais fácil de criar do que a IA amigável. Enquanto ambos requerem grandes avanços no desenho do processo de otimização recursiva, a IA amigável também requer a habilidade de fazer estruturas de objetivos invariantes sob auto-aperfeiçoamento (ou a IA poderia se transformar em algo não amigável) e uma estrutura de objetivos que se alinha com os valores humanos e não destrói automaticamente toda a raça humana. Uma IA não amigável, por outro lado, pode otimizar para uma estrutura de objetivos arbitrária, que não precisa ser invariante sob auto-modificação.

A enorme complexidade dos sistemas de valores humanos torna muito difícil tornar as motivações da IA amigáveis ao ser humano. A menos que a filosofia moral nos forneça uma teoria ética impecável, a função de utilidade de uma IA poderia permitir muitos cenários potencialmente prejudiciais que estejam em conformidade com uma dada estrutura ética, mas não “senso comum”. De acordo com Eliezer Yudkowsky, há pouca razão para supor que uma mente artificialmente projetada teria tal adaptação.

Probabilidades de conflitoEditar

Muitos estudiosos, incluindo o psicólogo evolucionário Steven Pinker, argumentam que uma máquina superinteligente é provável que coexista pacificamente com os humanos.

O medo da revolta cibernética é frequentemente baseado em interpretações da história da humanidade, que está repleta de incidentes de escravidão e genocídio. Tais medos provêm da crença de que a competitividade e a agressão são necessárias em qualquer sistema de objetivos do ser inteligente. No entanto, tal competitividade humana decorre do contexto evolutivo da nossa inteligência, onde a sobrevivência e reprodução dos genes face aos concorrentes humanos e não humanos era o objectivo central. Segundo o pesquisador da IA Steve Omohundro, uma inteligência arbitrária poderia ter objetivos arbitrários: não há razão particular para que uma máquina artificialmente inteligente (não compartilhando o contexto evolutivo da humanidade) seja hostil – ou amigável – a não ser que seus programas criadores sejam tais e não esteja inclinada ou capaz de modificar sua programação. Mas a questão permanece: o que aconteceria se os sistemas de IA pudessem interagir e evoluir (evolução neste contexto significa auto-modificação ou seleção e reprodução) e necessidade de competir sobre os recursos – isso criaria objetivos de autopreservação? O objetivo de autopreservação da IA poderia estar em conflito com alguns objetivos dos humanos.

Muitos estudiosos disputam a probabilidade de revolta cibernética inesperada como retratada na ficção científica como The Matrix, argumentando que é mais provável que qualquer inteligência artificial poderosa o suficiente para ameaçar a humanidade seria provavelmente programada para não atacá-la. Pinker reconhece a possibilidade de “maus atores” deliberados, mas afirma que, na ausência de maus atores, acidentes imprevistos não são uma ameaça significativa; Pinker argumenta que uma cultura de segurança da engenharia impedirá que pesquisadores de inteligência artificial liberem superinteligências malignas sobre acidentes. Em contraste, Yudkowsky argumenta que é menos provável que a humanidade seja ameaçada por IAs deliberadamente agressivas do que por IAs que foram programadas de tal forma que seus objetivos são involuntariamente incompatíveis com a sobrevivência ou bem-estar humano (como no filme I, Robô e no conto “O Conflito Evitável”). Omohundro sugere que os sistemas de automação atuais não são projetados para segurança e que as IAs podem otimizar cegamente funções de utilidade estreita (digamos, jogar xadrez a qualquer custo), levando-os a buscar a autopreservação e eliminação de obstáculos, incluindo humanos que possam desligá-los.

Deixe uma resposta

O seu endereço de email não será publicado.