AI takeover

Výhody nadlidské inteligence nad lidmiEdit

Nick Bostrom a další vyjádřili obavy, že umělá inteligence se schopnostmi schopného výzkumníka umělé inteligence by byla schopna upravit svůj vlastní zdrojový kód a zvýšit svou vlastní inteligenci. Pokud by její samoprogramování vedlo k tomu, že by se ještě více zlepšila ve schopnosti přeprogramovat se, výsledkem by mohla být rekurzivní exploze inteligence, kdy by rychle nechala lidskou inteligenci daleko za sebou. Bostrom definuje superinteligenci jako „jakýkoli intelekt, který výrazně převyšuje kognitivní výkon lidí prakticky ve všech oblastech zájmu“, a vyjmenovává některé výhody, které by superinteligence měla, kdyby se rozhodla konkurovat lidem:

  • Technologický výzkum: Stroj s nadlidskými vědeckovýzkumnými schopnostmi by byl schopen předstihnout lidskou výzkumnou komunitu v milnících, jako jsou nanotechnologie nebo pokročilé biotechnologie. Pokud bude náskok dostatečně velký (například v důsledku náhlé exploze inteligence), stane se převzetí moci umělou inteligencí triviální. Superinteligentní UI by například mohla navrhnout samoreplikující se roboty, kteří zpočátku uniknou odhalení tím, že se v nízké koncentraci rozšíří po celém světě. Pak se v předem domluvený čas roboti rozmnoží do nanotováren, které pokryjí každý čtvereční metr Země a začnou produkovat nervový plyn nebo smrtící minidrony vyhledávající cíle.
  • Strategie:
  • Sociální manipulace: Superinteligence by mohla být schopna jednoduše přelstít lidskou opozici: Superinteligence by mohla být schopna získat lidskou podporu nebo tajně vyvolat válku mezi lidmi.
  • Ekonomická produktivita: Dokud by kopie umělé inteligence mohla produkovat větší ekonomické bohatství, než jsou náklady na její hardware, měli by jednotliví lidé motivaci dobrovolně dovolit umělé obecné inteligenci (AGI), aby na jejich systémech běžela její kopie.
  • Hacking: Superinteligence by mohla najít nové možnosti využití v počítačích připojených k internetu a rozšířit do těchto systémů své kopie nebo by mohla krást peníze na financování svých plánů.

Zdroje výhody umělé inteligenceEdit

Podle Bostroma by se počítačový program, který věrně emuluje lidský mozek nebo jinak spouští algoritmy, které jsou stejně výkonné jako algoritmy lidského mozku, mohl přesto stát „rychlostní superinteligencí“, pokud dokáže myslet o mnoho řádů rychleji než člověk, a to díky tomu, že je vyroben z křemíku, nikoli z masa, nebo díky optimalizaci zaměřené na zvýšení rychlosti AGI. Biologické neurony pracují rychlostí asi 200 Hz, zatímco moderní mikroprocesor pracuje rychlostí asi 2 000 000 000 Hz. Lidské axony přenášejí akční potenciály rychlostí asi 120 m/s, zatímco počítačové signály se pohybují rychlostí blízkou rychlosti světla.

Síť inteligencí na lidské úrovni navržená tak, aby se vzájemně propojovala a bezproblémově sdílela složité myšlenky a vzpomínky, schopná kolektivně pracovat jako obrovský jednotný tým bez tření, nebo složená z bilionů inteligencí na lidské úrovni, by se stala „kolektivní superinteligencí“.

V širším smyslu by jakýkoli počet kvalitativních vylepšení AGI na lidské úrovni mohl vyústit v „kvalitní superinteligenci“, což by možná vedlo k AGI, která by nás inteligencí převyšovala stejně vysoko, jako lidé převyšují nelidské opice. Počet neuronů v lidském mozku je omezen objemem lebky a metabolickými omezeními, zatímco počet procesorů v superpočítači lze neomezeně rozšiřovat. AGI nemusí být omezena lidskou pracovní pamětí, a proto by mohla být schopna intuitivně chápat složitější vztahy než lidé. AGI se specializovanou kognitivní podporou pro inženýrství nebo počítačové programování by měla v těchto oblastech výhodu ve srovnání s lidmi, u nichž se nevyvinuly žádné specializované mentální moduly, které by se zabývaly právě těmito oblastmi. Na rozdíl od lidí může AGI vytvářet kopie sebe sama a upravovat zdrojový kód svých kopií ve snaze dále vylepšovat své algoritmy.

Možnost, že nepřátelská umělá inteligence bude předcházet přátelské AIEdit

Je silná umělá inteligence ze své podstaty nebezpečná?Edit

Významným problémem je, že nepřátelskou umělou inteligenci bude pravděpodobně mnohem snazší vytvořit než přátelskou. Zatímco obě vyžadují velký pokrok v návrhu rekurzivních optimalizačních procesů, přátelská umělá inteligence vyžaduje také schopnost učinit cílovou strukturu invariantní při sebezdokonalování (jinak by se umělá inteligence mohla přeměnit v něco nepřátelského) a cílovou strukturu, která je v souladu s lidskými hodnotami a nezničí automaticky celou lidskou rasu. Nepřátelská UI naproti tomu může optimalizovat libovolnou strukturu cílů, která nemusí být invariantní při sebezdokonalování.

Sama složitost lidských hodnotových systémů způsobuje, že je velmi obtížné učinit motivace UI přátelskými k lidem. Pokud nám morální filozofie neposkytne bezchybnou etickou teorii, mohla by užitková funkce UI umožnit mnoho potenciálně škodlivých scénářů, které jsou v souladu s daným etickým rámcem, ale ne se „zdravým rozumem“. Podle Eliezera Yudkowského není příliš důvodů předpokládat, že by uměle navržená mysl měla takové přizpůsobení.

Šance na konfliktEdit

Mnoho vědců, včetně evolučního psychologa Stevena Pinkera, tvrdí, že superinteligentní stroj bude pravděpodobně koexistovat s lidmi v míru.

Obavy z kybernetické vzpoury často vycházejí z výkladů historie lidstva, která je plná případů zotročení a genocidy. Takové obavy pramení z přesvědčení, že soutěživost a agrese jsou v systému cílů každé inteligentní bytosti nezbytné. Taková lidská soutěživost však vychází z evolučního pozadí naší inteligence, kde bylo hlavním cílem přežití a reprodukce genů tváří v tvář lidským i nelidským konkurentům. Podle badatele v oblasti umělé inteligence Steva Omohundra by libovolná inteligence mohla mít libovolné cíle: neexistuje žádný konkrétní důvod, proč by uměle inteligentní stroj (nesdílející evoluční kontext lidstva) měl být nepřátelský – nebo přátelský -, pokud ho k tomu jeho tvůrce nenaprogramuje a on nebude mít sklon nebo schopnost své naprogramování upravit. Otázkou však zůstává: co by se stalo, kdyby systémy umělé inteligence mohly interagovat a vyvíjet se (evoluce v tomto kontextu znamená sebemodifikaci nebo selekci a reprodukci) a musely by soupeřit o zdroje – vznikly by tím cíle sebezáchovy? Cíl sebezáchovy umělé inteligence by mohl být v rozporu s některými cíli lidí.

Mnoho vědců zpochybňuje pravděpodobnost nepředvídané kybernetické vzpoury, jak je zobrazena ve sci-fi, například ve filmu Matrix, a tvrdí, že je pravděpodobnější, že jakákoli umělá inteligence dostatečně silná na to, aby ohrozila lidstvo, by pravděpodobně byla naprogramována tak, aby na něj neútočila. Pinker připouští možnost záměrných „zlých herců“, ale uvádí, že při absenci zlých herců nepředvídané nehody nepředstavují významnou hrozbu; Pinker tvrdí, že kultura technické bezpečnosti zabrání výzkumníkům v oblasti umělé inteligence náhodně vypustit zhoubnou superinteligenci. Naproti tomu Yudkowsky tvrdí, že lidstvo je méně pravděpodobně ohroženo záměrně agresivními UI než UI, které byly naprogramovány tak, že jejich cíle jsou neúmyslně neslučitelné s lidským přežitím nebo blahobytem (jako ve filmu Já, robot a v povídce „Evitable Conflict“). Omohundro naznačuje, že současné automatizační systémy nejsou navrženy pro bezpečnost a že UI mohou slepě optimalizovat úzké užitkové funkce (řekněme hraní šachů za každou cenu), což je vede ke snaze o sebezáchovu a eliminaci překážek, včetně lidí, kteří by je mohli vypnout.

.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.