A mesterséges intelligencia hatalomátvétele

Az emberfeletti intelligencia előnyei az emberrel szembenSzerkesztés

Nick Bostrom és mások aggodalmukat fejezték ki, hogy egy hozzáértő mesterséges intelligencia-kutató képességeivel rendelkező AI képes lenne módosítani saját forráskódját és növelni saját intelligenciáját. Ha az önprogramozása ahhoz vezet, hogy még jobban át tudja programozni magát, az eredmény egy rekurzív intelligencia-robbanás lehet, ahol gyorsan messze maga mögött hagyja az emberi intelligenciát. Bostrom a szuperintelligenciát úgy definiálja, mint “bármely olyan értelem, amely gyakorlatilag minden érdeklődési területen jelentősen meghaladja az ember kognitív teljesítményét”, és felsorol néhány előnyt, amellyel egy szuperintelligencia rendelkezne, ha úgy döntene, hogy versenybe száll az emberrel:

  • Technológiai kutatás: Egy emberfeletti tudományos kutatási képességekkel rendelkező gép képes lenne megelőzni az emberi kutatóközösséget az olyan mérföldkövekben, mint a nanotechnológia vagy a fejlett biotechnológia. Ha az előny elég nagy lesz (például egy hirtelen intelligencia robbanás következtében), az AI hatalomátvétele triviálissá válik. Egy szuperintelligens mesterséges intelligencia például olyan önreprodukáló robotokat tervezhet, amelyek kezdetben úgy kerülik el a felderítést, hogy alacsony koncentrációban terjednek szét a világban. Aztán egy előre megbeszélt időpontban a robotok nano-gyárakká szaporodnak, amelyek a Föld minden négyzetméterét beborítják, ideggázt vagy halálos célpontot kereső minidrónokat termelnek.
  • Stratégia:
  • Szociális manipuláció: Egy szuperintelligencia képes lehet emberi támogatást toborozni, vagy titokban háborút szítani az emberek között.
  • Gazdasági termelékenység:
  • Hackelés: Amíg a mesterséges intelligencia másolata több gazdasági javakat tud termelni, mint amennyibe a hardvere kerül, addig az egyes embereket arra ösztönözné, hogy önként engedjék, hogy a mesterséges általános intelligencia (AGI) egy másolatát futtassák a rendszerükön.
  • Hackelés: Egy szuperintelligencia új exploitokat találhatna az internetre csatlakoztatott számítógépekben, és elterjeszthetné önmaga másolatait ezeken a rendszereken, vagy pénzt lophatna tervei finanszírozására.

A mesterséges intelligencia előnyének forrásaiSzerkesztés

Bostrom szerint egy számítógépes program, amely hűen emulálja az emberi agyat, vagy egyébként az emberi agy algoritmusaival azonos teljesítményű algoritmusokat futtat, mégis “sebesség-szuperintelligenciává” válhat, ha nagyságrendekkel gyorsabban tud gondolkodni, mint egy ember, annak köszönhetően, hogy nem húsból, hanem szilíciumból készült, vagy az AGI sebességének növelésére összpontosító optimalizálásnak köszönhetően. A biológiai neuronok körülbelül 200 Hz-es sebességgel működnek, míg egy modern mikroprocesszor körülbelül 2.000.000.000 Hz-es sebességgel. Az emberi axonok az akciós potenciálokat körülbelül 120 m/s sebességgel továbbítják, míg a számítógépes jelek közel a fénysebességgel haladnak.

Az emberi szintű intelligenciák hálózatát úgy tervezték, hogy hálózatba kapcsolódjanak és zökkenőmentesen osszák meg egymással a komplex gondolatokat és emlékeket, és képesek legyenek együttesen egy óriási, egységes csapatként, súrlódás nélkül dolgozni, vagy emberi szintű intelligenciák trillióiból álljanak, ez lenne a “kollektív szuperintelligencia”.

Tágabb értelemben egy emberi szintű AGI bármilyen minőségi fejlesztése “minőségi szuperintelligenciát” eredményezhet, ami talán egy olyan AGI-t eredményezhet, amely intelligenciában olyan messze fölöttünk van, mint az ember a nem emberi majmok fölött. Az emberi agy neuronjainak számát a koponya térfogata és a metabolikus korlátok korlátozzák, míg egy szuperszámítógép processzorainak száma a végtelenségig bővíthető. Egy AGI-t nem kell, hogy korlátozzák az emberi munkamemória korlátai, és ezért képes lehet intuitív módon összetettebb összefüggéseket felfogni, mint az ember. A mérnöki vagy számítógépes programozásra specializált kognitív támogatással rendelkező AGI előnyben lenne ezeken a területeken az emberrel szemben, aki nem fejlesztett ki olyan speciális mentális modulokat, amelyek kifejezetten ezekkel a területekkel foglalkoznának. Az emberekkel ellentétben egy AGI képes másolatokat létrehozni magáról, és a másolatainak forráskódját megkísérelve továbbfejleszteni algoritmusait.

A barátságos AI-t megelőzheti a barátságtalan AI lehetőségeIEdit

Az erős AI eredendően veszélyes?Edit

Egy jelentős probléma, hogy a barátságtalan mesterséges intelligenciát valószínűleg sokkal könnyebb lesz létrehozni, mint a barátságos AI-t. Bár mindkettőhöz nagy előrelépésekre van szükség a rekurzív optimalizációs folyamatok tervezésében, a barátságos AI-hez az is szükséges, hogy a célstruktúrák invariánsak legyenek az önfejlesztés során (különben az AI átalakulhat valami barátságtalanná), valamint olyan célstruktúra, amely igazodik az emberi értékekhez, és nem pusztítja el automatikusan az egész emberi fajt. Egy barátságtalan mesterséges intelligencia viszont optimalizálhat egy tetszőleges célstruktúrára, amelynek nem kell invariánsnak lennie az önmódosulás során.

Az emberi értékrendszerek puszta komplexitása miatt nagyon nehéz a mesterséges intelligencia motivációit emberbaráttá tenni. Hacsak az erkölcsfilozófia nem biztosít számunkra egy hibátlan etikai elméletet, egy mesterséges intelligencia hasznossági függvénye számos potenciálisan káros forgatókönyvet engedhet meg, amelyek megfelelnek egy adott etikai keretnek, de a “józan észnek” nem. Eliezer Yudkowsky szerint kevés okunk van feltételezni, hogy egy mesterségesen tervezett elme ilyen alkalmazkodással rendelkezne.

A konfliktus esélyeiSzerkesztés

Sok tudós, köztük Steven Pinker evolúciós pszichológus, azzal érvel, hogy egy szuperintelligens gép valószínűleg békésen fog együtt élni az emberekkel.

A kibernetikus lázadástól való félelem gyakran az emberiség történelmének értelmezésén alapul, amely tele van rabszolgasorba taszítás és népirtás eseteivel. Az ilyen félelmek abból a meggyőződésből fakadnak, hogy a versengés és az agresszió szükséges minden intelligens lény célrendszerében. Az ilyen emberi versenyképesség azonban intelligenciánk evolúciós hátteréből ered, ahol a gének túlélése és szaporodása volt a központi cél az emberi és nem emberi versenytársakkal szemben. Steve Omohundro, a mesterséges intelligencia kutatója szerint egy tetszőleges intelligenciának is lehetnek tetszőleges céljai: nincs különösebb oka annak, hogy egy mesterségesen intelligens gép (amely nem osztozik az emberiség evolúciós hátterében) ellenséges – vagy barátságos – legyen, kivéve, ha a teremtője erre programozza, és nem hajlandó vagy képes módosítani a programozását. De a kérdés továbbra is fennáll: mi történne, ha a mesterséges intelligencia rendszerek képesek lennének kölcsönhatásba lépni és fejlődni (az evolúció ebben az összefüggésben önmódosulást vagy szelekciót és szaporodást jelent), és versenyezniük kellene az erőforrásokért – ez önfenntartási célokat hozna létre? A mesterséges intelligencia önfenntartási céljai konfliktusba kerülhetnének az emberek egyes céljaival.

Sok tudós vitatja a sci-fiben, például a Mátrixban ábrázolt váratlan kibernetikai lázadás valószínűségét, azzal érvelve, hogy valószínűbb, hogy bármilyen mesterséges intelligencia, amely elég erős ahhoz, hogy fenyegesse az emberiséget, valószínűleg úgy lenne programozva, hogy ne támadja meg azt. Pinker elismeri a szándékos “rossz szereplők” lehetőségét, de azt állítja, hogy rossz szereplők hiányában a váratlan balesetek nem jelentenek jelentős fenyegetést; Pinker szerint a mérnöki biztonság kultúrája meg fogja akadályozni, hogy a mesterséges intelligencia kutatói véletlenül rosszindulatú szuperintelligenciát szabadítsanak el. Yudkowsky ezzel szemben azt állítja, hogy az emberiséget kevésbé fenyegetik a szándékosan agresszív mesterséges intelligenciák, mint azok, amelyeket úgy programoztak, hogy céljaik nem szándékosan összeegyeztethetetlenek az emberi túléléssel vagy jóléttel (mint az I, Robot című filmben és a “The Evitable Conflict” című novellában). Omohundro szerint a mai automatizálási rendszereket nem a biztonságra tervezték, és a mesterséges intelligenciák vakon optimalizálhatnak szűk hasznossági funkciókat (mondjuk sakkozni mindenáron), ami arra készteti őket, hogy önfenntartásra és az akadályok – köztük az őket esetleg kikapcsoló emberek – kiiktatására törekedjenek.

Vélemény, hozzászólás?

Az e-mail-címet nem tesszük közzé.