Zalety nadludzkiej inteligencji nad ludźmiEdit
Nick Bostrom i inni wyrazili obawy, że AI o zdolnościach kompetentnego badacza sztucznej inteligencji byłaby w stanie modyfikować swój własny kod źródłowy i zwiększać własną inteligencję. Jeśli jej samoprogramowanie doprowadzi do tego, że stanie się jeszcze lepsza w przeprogramowywaniu samej siebie, rezultatem może być rekurencyjna eksplozja inteligencji, w której szybko zostawi ona ludzką inteligencję daleko w tyle. Bostrom definiuje superinteligencję jako „każdy intelekt, który znacznie przewyższa zdolności poznawcze ludzi w praktycznie wszystkich interesujących ich dziedzinach” i wylicza niektóre zalety, jakie miałaby superinteligencja, gdyby zdecydowała się konkurować z ludźmi:
- Badania technologiczne: Maszyna o nadludzkich zdolnościach badawczych byłaby w stanie pokonać ludzką społeczność badawczą w osiąganiu kamieni milowych takich jak nanotechnologia czy zaawansowana biotechnologia. Jeśli przewaga stanie się wystarczająco duża (np. w wyniku nagłej eksplozji inteligencji), przejęcie przez SI staje się trywialne. Na przykład superinteligentna SI może zaprojektować samoreplikujące się boty, które początkowo unikną wykrycia, rozprzestrzeniając się po świecie w niewielkim stężeniu. Następnie, w ustalonym wcześniej czasie, boty rozmnażają się w nanofabryki, które pokrywają każdą stopę kwadratową Ziemi, produkując gaz nerwowy lub śmiercionośne, poszukujące celu mini-drony.
- Strategowanie: Superinteligencja może być w stanie po prostu przechytrzyć ludzką opozycję.
- Manipulacja społeczna: Superinteligencja może być w stanie zwerbować ludzkie wsparcie, lub potajemnie podżegać do wojny między ludźmi.
- Produktywność ekonomiczna: Tak długo, jak kopia SI mogłaby produkować więcej bogactwa ekonomicznego niż koszt jej sprzętu, poszczególni ludzie mieliby motywację do dobrowolnego pozwolenia Sztucznej Inteligencji Ogólnej (AGI) na uruchomienie kopii samej siebie w ich systemach.
- Hakowanie: Superinteligencja mogłaby znaleźć nowe exploity w komputerach podłączonych do Internetu i rozprzestrzenić kopie samej siebie na te systemy, lub mogłaby ukraść pieniądze, aby sfinansować swoje plany.
Źródła przewagi AIEdit
Według Bostroma, program komputerowy, który wiernie emuluje ludzki mózg, lub który w inny sposób uruchamia algorytmy, które są równie potężne jak algorytmy ludzkiego mózgu, wciąż może stać się „superinteligencją prędkości”, jeśli może myśleć wiele rzędów wielkości szybciej niż człowiek, z powodu bycia wykonanym z krzemu, a nie z ciała, lub z powodu optymalizacji skupiającej się na zwiększeniu prędkości AGI. Biologiczne neurony działają z częstotliwością około 200 Hz, podczas gdy nowoczesny mikroprocesor działa z prędkością około 2 000 000 000 000 Hz. Ludzkie aksony przenoszą potencjały czynnościowe z prędkością około 120 m/s, podczas gdy sygnały komputerowe podróżują z prędkością bliską prędkości światła.
Sieć inteligencji na poziomie ludzkim zaprojektowana do łączenia się w sieć i bezproblemowego dzielenia się złożonymi myślami i wspomnieniami, zdolna do zbiorowej pracy jako gigantyczny zjednoczony zespół bez tarć, lub składająca się z bilionów inteligencji na poziomie ludzkim, stałaby się „zbiorową superinteligencją”.
Szerzej, dowolna liczba jakościowych ulepszeń AGI na poziomie człowieka mogłaby zaowocować „superinteligencją jakościową”, być może skutkując AGI tak dalece przewyższającą nas inteligencją, jak ludzie przewyższają małpy człekokształtne. Liczba neuronów w ludzkim mózgu jest ograniczona objętością czaszki i ograniczeniami metabolicznymi, podczas gdy liczbę procesorów w superkomputerze można rozszerzać w nieskończoność. AGI nie musi być ograniczona ludzkimi ograniczeniami pamięci roboczej, a zatem może być w stanie intuicyjnie pojmować bardziej złożone relacje niż ludzie. AGI z wyspecjalizowanym wsparciem kognitywnym dla inżynierii lub programowania komputerowego miałaby przewagę w tych dziedzinach w porównaniu z ludźmi, którzy nie wyewoluowali żadnych wyspecjalizowanych modułów umysłowych do zajmowania się tymi dziedzinami. W przeciwieństwie do ludzi, AGI może tworzyć kopie samej siebie i majstrować przy kodzie źródłowym swoich kopii, aby próbować dalej ulepszać swoje algorytmy.
Możliwość pojawienia się nieprzyjaznej AI poprzedzającej przyjazną AIEdit
Czy silna AI jest z natury niebezpieczna? Edit
Istotnym problemem jest to, że nieprzyjazną sztuczną inteligencję prawdopodobnie będzie dużo łatwiej stworzyć niż przyjazną AI. Podczas gdy oba wymagają dużych postępów w projektowaniu procesów optymalizacji rekursywnej, przyjazna AI wymaga również zdolności do uczynienia struktur celów niezmiennymi pod samodoskonaleniem (lub AI może przekształcić się w coś nieprzyjaznego) i struktury celów, która jest zgodna z ludzkimi wartościami i nie niszczy automatycznie całej rasy ludzkiej. Nieprzyjazne AI, z drugiej strony, może optymalizować dla arbitralnej struktury celów, która nie musi być niezmienna pod wpływem samomodyfikacji.
Sama złożoność ludzkich systemów wartości sprawia, że bardzo trudno jest uczynić motywacje AI przyjaznymi dla ludzi. Jeśli filozofia moralna nie dostarczy nam bezbłędnej teorii etycznej, funkcja użyteczności SI może pozwolić na wiele potencjalnie szkodliwych scenariuszy, które są zgodne z danymi ramami etycznymi, ale nie ze „zdrowym rozsądkiem”. Według Eliezera Yudkowsky’ego nie ma powodu, aby przypuszczać, że sztucznie zaprojektowany umysł miałby taką adaptację.
Szanse na konfliktEdit
Wielu uczonych, w tym psycholog ewolucyjny Steven Pinker, twierdzi, że superinteligentna maszyna prawdopodobnie będzie pokojowo współistnieć z ludźmi.
Obawa przed cybernetyczną rewoltą często opiera się na interpretacjach historii ludzkości, która obfituje w przypadki zniewolenia i ludobójstwa. Takie obawy wynikają z przekonania, że konkurencyjność i agresja są niezbędne w systemie celów każdej inteligentnej istoty. Jednak taka ludzka konkurencyjność wynika z ewolucyjnego podłoża naszej inteligencji, gdzie głównym celem było przetrwanie i reprodukcja genów w obliczu ludzkich i nie-ludzkich konkurentów. Według badacza AI Steve’a Omohundro arbitralna inteligencja może mieć arbitralne cele: nie ma żadnego szczególnego powodu, dla którego sztucznie inteligentna maszyna (nie podzielająca ewolucyjnego kontekstu ludzkości) miałaby być wroga – lub przyjazna – chyba że jej twórca tak ją zaprogramuje, a ona sama nie będzie skłonna lub zdolna do modyfikacji swojego programu. Pozostaje jednak pytanie: co by się stało, gdyby systemy AI mogły wchodzić w interakcje i ewoluować (ewolucja w tym kontekście oznacza samomodyfikację lub selekcję i reprodukcję) i musiałyby konkurować o zasoby – czy wtedy powstałby cele samozachowawcze? Cel samozachowawczy AI mógłby być w konflikcie z niektórymi celami ludzi.
Wielu uczonych kwestionuje prawdopodobieństwo nieoczekiwanego cybernetycznego buntu przedstawionego w science fiction takim jak Matrix, argumentując, że bardziej prawdopodobne jest, iż każda sztuczna inteligencja wystarczająco potężna, by zagrozić ludzkości, zostałaby prawdopodobnie zaprogramowana, by jej nie atakować. Pinker uznaje możliwość istnienia celowych „złych aktorów”, ale stwierdza, że przy ich braku nieprzewidziane wypadki nie stanowią istotnego zagrożenia; Pinker argumentuje, że kultura bezpieczeństwa inżynieryjnego zapobiegnie przypadkowemu uwolnieniu przez badaczy AI złośliwej superinteligencji. Z kolei Yudkowsky twierdzi, że ludzkość jest mniej zagrożona przez celowo agresywne SI niż przez SI, które zostały zaprogramowane tak, że ich cele są niezamierzenie niezgodne z ludzkim przetrwaniem lub dobrobytem (jak w filmie I, Robot i opowiadaniu „The Evitable Conflict”). Omohundro sugeruje, że współczesne systemy automatyki nie są zaprojektowane dla bezpieczeństwa i że SI mogą ślepo optymalizować wąskie funkcje użyteczności (powiedzmy, gra w szachy za wszelką cenę), co prowadzi je do dążenia do samozachowania i eliminacji przeszkód, w tym ludzi, którzy mogą je wyłączyć.