Preluarea IA

Avantajele inteligenței supraumane asupra oamenilorEdit

Nick Bostrom și alții și-au exprimat îngrijorarea că o IA cu abilitățile unui cercetător competent în domeniul inteligenței artificiale ar fi capabilă să-și modifice propriul cod sursă și să-și sporească propria inteligență. Dacă autoprogramarea sa duce la îmbunătățirea și mai mare a capacității sale de a se reprograma, rezultatul ar putea fi o explozie recursivă a inteligenței, în care ar lăsa rapid inteligența umană mult în urmă. Bostrom definește o superinteligență ca fiind „orice intelect care depășește cu mult performanța cognitivă a oamenilor în aproape toate domeniile de interes” și enumeră câteva avantaje pe care le-ar avea o superinteligență dacă ar alege să concureze cu oamenii:

  • Cercetare tehnologică: O mașină cu abilități supraumane de cercetare științifică ar fi capabilă să devanseze comunitatea de cercetare umană în ceea ce privește realizarea unor etape importante, cum ar fi nanotehnologia sau biotehnologia avansată. Dacă avantajul devine suficient de mare (de exemplu, din cauza unei explozii bruște a inteligenței), o preluare a IA devine banală. De exemplu, o inteligență artificială superinteligentă ar putea proiecta roboți care se autoreplică și care, inițial, scapă detecției prin răspândirea în întreaga lume la o concentrație scăzută. Apoi, la un moment prestabilit, roboții se multiplică în nanofabrici care acoperă fiecare metru pătrat al Pământului, producând gaze neurotoxice sau mini-drone mortale care caută ținte.
  • Strategizare: O superinteligență ar putea fi capabilă să fie pur și simplu mai inteligentă decât opoziția umană.
  • Manipulare socială: O superinteligență ar putea fi capabilă să recruteze sprijin uman sau să incite pe ascuns un război între oameni.
  • Productivitate economică: Atâta timp cât o copie a inteligenței artificiale ar putea produce mai multă bogăție economică decât costul hardware-ului său, oamenii individuali ar avea un stimulent pentru a permite în mod voluntar inteligenței generale artificiale (AGI) să ruleze o copie a sa pe sistemele lor.
  • Hacking: O superinteligență ar putea găsi noi exploatări în computerele conectate la internet și ar putea răspândi copii ale sale pe aceste sisteme sau ar putea fura bani pentru a-și finanța planurile.

Surse ale avantajului IAEdit

Potrivit lui Bostrom, un program de calculator care emulează fidel un creier uman sau care, în caz contrar, rulează algoritmi la fel de puternici ca și algoritmii creierului uman, ar putea deveni totuși o „superinteligență de viteză” dacă poate gândi cu multe ordine de mărime mai repede decât un om, datorită faptului că este făcut din siliciu și nu din carne sau datorită optimizării care se concentrează pe creșterea vitezei AGI. Neuronii biologici funcționează la o viteză de aproximativ 200 Hz, în timp ce un microprocesor modern funcționează la o viteză de aproximativ 2.000.000.000.000 Hz. Axonii umani transportă potențialele de acțiune cu aproximativ 120 m/s, în timp ce semnalele computerizate călătoresc cu o viteză apropiată de cea a luminii.

O rețea de inteligențe de nivel uman proiectată să lucreze în rețea și să împărtășească gânduri și amintiri complexe fără probleme, capabilă să lucreze în mod colectiv ca o echipă uriașă unificată fără fricțiuni, sau formată din trilioane de inteligențe de nivel uman, ar deveni o „superinteligență colectivă”.

În sens mai larg, orice număr de îmbunătățiri calitative aduse unei AGI de nivel uman ar putea duce la o „superinteligență de calitate”, rezultând poate o AGI la fel de mult peste noi în ceea ce privește inteligența precum oamenii sunt peste maimuțele non-umane. Numărul de neuroni dintr-un creier uman este limitat de volumul cranian și de constrângerile metabolice, în timp ce numărul de procesoare dintr-un supercomputer poate fi extins la nesfârșit. O AGI nu trebuie să fie limitată de constrângerile umane privind memoria de lucru și, prin urmare, ar putea fi capabilă să înțeleagă intuitiv relații mai complexe decât oamenii. O AGI cu un suport cognitiv specializat pentru inginerie sau programarea calculatoarelor ar avea un avantaj în aceste domenii, în comparație cu oamenii care nu au dezvoltat module mentale specializate pentru a se ocupa în mod specific de aceste domenii. Spre deosebire de oameni, o AGI poate genera copii ale ei însăși și poate modifica codul sursă al copiilor sale pentru a încerca să își îmbunătățească în continuare algoritmii.

Posibilitatea ca IA neprietenoasă să precedă AIE prietenoasă Edit

Este IA puternică inerent periculoasă?Edit

O problemă semnificativă este că inteligența artificială neprietenoasă este probabil să fie mult mai ușor de creat decât IA prietenoasă. În timp ce ambele necesită progrese mari în proiectarea proceselor de optimizare recursivă, AI prietenoasă necesită, de asemenea, abilitatea de a face ca structurile de obiective să fie invariante în condiții de auto-îmbunătățire (sau AI s-ar putea transforma în ceva neprietenos) și o structură de obiective care să se alinieze cu valorile umane și să nu distrugă automat întreaga rasă umană. O IA neprietenoasă, pe de altă parte, poate optimiza pentru o structură de scop arbitrară, care nu trebuie să fie invariantă sub auto-modificare.

Complexitatea pură a sistemelor de valori umane face foarte dificilă transformarea motivațiilor IA în motivații prietenoase cu oamenii. Cu excepția cazului în care filozofia morală ne oferă o teorie etică fără cusur, funcția de utilitate a unei IA ar putea permite multe scenarii potențial dăunătoare care sunt conforme cu un anumit cadru etic, dar nu și cu „bunul simț”. Potrivit lui Eliezer Yudkowsky, există puține motive pentru a presupune că o minte proiectată artificial ar avea o astfel de adaptare.

Șanse de conflictEdit

Mulți cercetători, inclusiv psihologul evoluționist Steven Pinker, susțin că este probabil ca o mașină superinteligentă să coexiste pașnic cu oamenii.

Teama de o revoltă cibernetică se bazează adesea pe interpretări ale istoriei umanității, care este plină de incidente de sclavie și genocid. Astfel de temeri provin din credința că competitivitatea și agresivitatea sunt necesare în sistemul de obiective al oricărei ființe inteligente. Cu toate acestea, o astfel de competitivitate umană provine din contextul evolutiv al inteligenței noastre, în care supraviețuirea și reproducerea genelor în fața concurenților umani și non-umani a fost obiectivul central. Potrivit cercetătorului în domeniul inteligenței artificiale Steve Omohundro, o inteligență arbitrară ar putea avea scopuri arbitrare: nu există niciun motiv anume pentru care o mașină inteligentă artificial (care nu împărtășește contextul evolutiv al umanității) ar fi ostilă – sau prietenoasă -, cu excepția cazului în care creatorul său o programează să fie astfel și nu este înclinată sau capabilă să își modifice programarea. Dar întrebarea rămâne: ce s-ar întâmpla dacă sistemele de inteligență artificială ar putea interacționa și evolua (evoluție în acest context înseamnă auto-modificare sau selecție și reproducere) și ar trebui să concureze pentru resurse – ar crea aceasta obiective de autoconservare? Scopul de autoconservare al IA ar putea intra în conflict cu unele obiective ale oamenilor.

Mulți cercetători contestă probabilitatea unei revolte cibernetice neanticipate, așa cum este descrisă în science-fiction, cum ar fi The Matrix, argumentând că este mai probabil ca orice inteligență artificială suficient de puternică pentru a amenința umanitatea să fie probabil programată să nu o atace. Pinker recunoaște posibilitatea unor „actori răi” intenționați, dar afirmă că, în absența actorilor răi, accidentele neprevăzute nu reprezintă o amenințare semnificativă; Pinker susține că o cultură a siguranței inginerești îi va împiedica pe cercetătorii în domeniul IA să dezlănțuie accidental o superinteligență malignă. În schimb, Yudkowsky susține că este mai puțin probabil ca omenirea să fie amenințată de inteligențe artificiale agresive în mod deliberat decât de inteligențe artificiale care au fost programate astfel încât obiectivele lor să fie incompatibile în mod neintenționat cu supraviețuirea sau bunăstarea umană (așa cum se întâmplă în filmul „I, Robot” și în povestirea scurtă „The Evitable Conflict”). Omohundro sugerează că sistemele de automatizare din zilele noastre nu sunt proiectate pentru siguranță și că AI-urile pot optimiza orbește funcții de utilitate înguste (de exemplu, să joace șah cu orice preț), ceea ce le determină să caute autoconservarea și eliminarea obstacolelor, inclusiv a oamenilor care le-ar putea opri.

.

Lasă un răspuns

Adresa ta de email nu va fi publicată.