AI takeover

Vantaggi di un’intelligenza sovrumana sull’uomoEdit

Nick Bostrom e altri hanno espresso la preoccupazione che un’AI con le capacità di un ricercatore di intelligenza artificiale competente possa modificare il proprio codice sorgente e aumentare la propria intelligenza. Se la sua autoprogrammazione la porta a diventare ancora più brava a riprogrammare se stessa, il risultato potrebbe essere un’esplosione di intelligenza ricorsiva in cui lascerebbe rapidamente l’intelligenza umana molto indietro. Bostrom definisce una superintelligenza come “qualsiasi intelletto che supera di molto le prestazioni cognitive degli esseri umani in quasi tutti i domini di interesse”, ed enumera alcuni vantaggi che una superintelligenza avrebbe se scegliesse di competere contro gli umani:

  • Ricerca tecnologica: Una macchina con capacità di ricerca scientifica sovrumana sarebbe in grado di battere la comunità di ricerca umana su pietre miliari come la nanotecnologia o la biotecnologia avanzata. Se il vantaggio diventa sufficientemente grande (per esempio, a causa di un’improvvisa esplosione di intelligenza), una presa di potere dell’IA diventa banale. Per esempio, una IA superintelligente potrebbe progettare bot autoreplicanti che inizialmente sfuggono al rilevamento diffondendosi nel mondo a una bassa concentrazione. Poi, in un momento prestabilito, i bot si moltiplicano in nanofabbriche che coprono ogni metro quadrato della Terra, producendo gas nervino o mini-droni mortali alla ricerca di un obiettivo.
  • Strategia: Una superintelligenza potrebbe essere in grado di superare semplicemente l’opposizione umana.
  • Manipolazione sociale: Una superintelligenza potrebbe essere in grado di reclutare supporto umano, o incitare segretamente una guerra tra umani.
  • Produttività economica: Finché una copia dell’IA potrebbe produrre più ricchezza economica del costo del suo hardware, i singoli umani sarebbero incentivati a permettere volontariamente all’Intelligenza Generale Artificiale (AGI) di eseguire una copia di se stessa sui loro sistemi.
  • Hacking: Una superintelligenza potrebbe trovare nuovi exploit nei computer connessi a Internet, e diffondere copie di se stessa su quei sistemi, o potrebbe rubare denaro per finanziare i suoi piani.

Fonti del vantaggio dell’IAModifica

Secondo Bostrom, un programma per computer che emula fedelmente un cervello umano, o che altrimenti esegue algoritmi che sono altrettanto potenti di quelli del cervello umano, potrebbe comunque diventare una “superintelligenza della velocità” se può pensare molti ordini di grandezza più velocemente di un umano, a causa del fatto di essere fatto di silicio piuttosto che di carne, o a causa dell’ottimizzazione incentrata sull’aumento della velocità dell’AGI. I neuroni biologici operano a circa 200 Hz, mentre un moderno microprocessore opera ad una velocità di circa 2.000.000.000 Hz. Gli assoni umani trasportano potenziali d’azione a circa 120 m/s, mentre i segnali dei computer viaggiano quasi alla velocità della luce.

Una rete di intelligenze di livello umano progettata per collegarsi in rete e condividere pensieri e memorie complesse senza soluzione di continuità, in grado di lavorare collettivamente come una gigantesca squadra unificata senza attriti, o composta da trilioni di intelligenze di livello umano, diventerebbe una “superintelligenza collettiva”.

Più in generale, qualsiasi numero di miglioramenti qualitativi a un’AGI di livello umano potrebbe portare a una “superintelligenza di qualità”, forse risultando in un’AGI tanto al di sopra di noi in intelligenza quanto gli umani sono al di sopra delle scimmie non umane. Il numero di neuroni in un cervello umano è limitato dal volume cranico e dai vincoli metabolici, mentre il numero di processori in un supercomputer può essere ampliato indefinitamente. Un’AGI non ha bisogno di essere limitata dai vincoli umani sulla memoria di lavoro, e potrebbe quindi essere in grado di afferrare intuitivamente relazioni più complesse di quanto possano fare gli umani. Un’AGI con un supporto cognitivo specializzato per l’ingegneria o la programmazione di computer avrebbe un vantaggio in questi campi, rispetto agli umani che non hanno evoluto moduli mentali specializzati per affrontare specificamente quei domini. A differenza degli umani, un’AGI può generare copie di se stessa e armeggiare con il codice sorgente delle sue copie per tentare di migliorare ulteriormente i suoi algoritmi.

Possibilità che l’IA ostile preceda l’IA amichevoleEdit

L’IA forte è intrinsecamente pericolosa? Edit

Un problema significativo è che l’intelligenza artificiale ostile è probabilmente molto più facile da creare di quella amichevole. Mentre entrambi richiedono grandi progressi nella progettazione di processi di ottimizzazione ricorsiva, l’IA amichevole richiede anche la capacità di rendere invarianti le strutture degli obiettivi sotto l’auto-miglioramento (o l’IA potrebbe trasformarsi in qualcosa di non amichevole) e una struttura di obiettivi che si allinei con i valori umani e non distrugga automaticamente l’intera razza umana. Un’IA non amichevole, d’altra parte, può ottimizzare per una struttura di obiettivi arbitraria, che non ha bisogno di essere invariante sotto l’auto-modifica.

La pura complessità dei sistemi di valori umani rende molto difficile rendere le motivazioni dell’IA umane. A meno che la filosofia morale non ci fornisca una teoria etica impeccabile, la funzione di utilità di un’IA potrebbe consentire molti scenari potenzialmente dannosi che sono conformi a un dato quadro etico ma non al “senso comune”. Secondo Eliezer Yudkowsky, ci sono poche ragioni per supporre che una mente progettata artificialmente avrebbe un tale adattamento.

Probabilità di conflittoModifica

Molti studiosi, compreso lo psicologo evoluzionista Steven Pinker, sostengono che una macchina superintelligente è probabile che coesista pacificamente con gli esseri umani.

La paura della rivolta cibernetica è spesso basata su interpretazioni della storia dell’umanità, che è piena di episodi di schiavitù e genocidio. Tali paure derivano dalla convinzione che la competitività e l’aggressività siano necessarie nel sistema di obiettivi di qualsiasi essere intelligente. Tuttavia, tale competitività umana deriva dal background evolutivo della nostra intelligenza, dove la sopravvivenza e la riproduzione dei geni di fronte ai concorrenti umani e non umani era l’obiettivo centrale. Secondo il ricercatore di IA Steve Omohundro, un’intelligenza arbitraria potrebbe avere obiettivi arbitrari: non c’è nessuna ragione particolare per cui una macchina artificialmente intelligente (che non condivide il contesto evolutivo dell’umanità) sarebbe ostile o amichevole, a meno che il suo creatore non la programmi per essere tale ed essa non sia incline o capace di modificare la sua programmazione. Ma la domanda rimane: cosa accadrebbe se i sistemi di IA potessero interagire ed evolvere (evoluzione in questo contesto significa auto-modificazione o selezione e riproduzione) e avessero bisogno di competere per le risorse – questo creerebbe obiettivi di auto-conservazione? L’obiettivo di autoconservazione dell’IA potrebbe essere in conflitto con alcuni obiettivi degli esseri umani.

Molti studiosi contestano la probabilità di una rivolta cibernetica imprevista come quella rappresentata nella fantascienza come Matrix, sostenendo che è più probabile che qualsiasi intelligenza artificiale abbastanza potente da minacciare l’umanità sarebbe probabilmente programmata per non attaccarla. Pinker riconosce la possibilità di “attori cattivi” deliberati, ma afferma che in assenza di attori cattivi, gli incidenti imprevisti non sono una minaccia significativa; Pinker sostiene che una cultura della sicurezza ingegneristica impedirà ai ricercatori di IA di scatenare una superintelligenza maligna per caso. Al contrario, Yudkowsky sostiene che è meno probabile che l’umanità sia minacciata da IA deliberatamente aggressive che da IA programmate in modo tale che i loro obiettivi siano involontariamente incompatibili con la sopravvivenza o il benessere umano (come nel film I, Robot e nel racconto “The Evitable Conflict”). Omohundro suggerisce che gli attuali sistemi di automazione non sono progettati per la sicurezza e che le IA possono ottimizzare ciecamente funzioni di utilità ristrette (ad esempio, giocare a scacchi a tutti i costi), portandole a cercare l’autoconservazione e l’eliminazione degli ostacoli, compresi gli esseri umani che potrebbero spegnerle.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.