Fordele ved overmenneskelig intelligens i forhold til menneskerRediger
Nick Bostrom og andre har udtrykt bekymring for, at en AI med de evner, som en kompetent forsker i kunstig intelligens har, vil være i stand til at ændre sin egen kildekode og øge sin egen intelligens. Hvis dens selvomprogrammering fører til, at den bliver endnu bedre til at kunne omprogrammere sig selv, kan resultatet blive en rekursiv intelligenseksplosion, hvor den hurtigt vil efterlade den menneskelige intelligens langt bagud. Bostrom definerer en superintelligens som “ethvert intellekt, der i høj grad overgår menneskers kognitive præstationer inden for stort set alle områder af interesse”, og opregner nogle fordele, som en superintelligens ville have, hvis den valgte at konkurrere med mennesker:
- Teknologiforskning: En maskine med overmenneskelige videnskabelige forskningsevner ville være i stand til at slå det menneskelige forskersamfund i forbindelse med milepæle som nanoteknologi eller avanceret bioteknologi. Hvis fordelen bliver tilstrækkelig stor (f.eks. som følge af en pludselig intelligenseksplosion), bliver en overtagelse af AI triviel. En superintelligent AI kunne f.eks. designe selvreplikerende robotter, der i første omgang undgår at blive opdaget ved at sprede sig over hele verden i en lav koncentration. Derefter, på et forudbestemt tidspunkt, formerer robotterne sig til nanofabrikker, der dækker hver eneste kvadratmeter af jorden og producerer nervegas eller dødbringende målsøgende minidroner.
- Strategi: En superintelligens vil måske være i stand til simpelthen at overliste menneskelig modstand.
- Social manipulation: En superintelligens kan måske være i stand til at rekruttere menneskelig støtte eller i det skjulte opildne til en krig mellem mennesker.
- Økonomisk produktivitet: Så længe en kopi af AI’en kunne producere mere økonomisk velstand end omkostningerne ved dens hardware, ville de enkelte mennesker have et incitament til frivilligt at tillade den kunstige generelle intelligens (AGI) at lade en kopi af sig selv køre på deres systemer.
- Hacking: En superintelligens kunne finde nye muligheder for at udnytte computere, der er forbundet med internettet, og sprede kopier af sig selv til disse systemer eller stjæle penge for at finansiere sine planer.
Kilder til AI-fordelRediger
Efter Bostrom kan et computerprogram, der trofast emulerer en menneskehjerne, eller som på anden måde kører algoritmer, der er lige så kraftfulde som menneskehjernens algoritmer, stadig blive en “hastigheds-superintelligens”, hvis det kan tænke mange størrelsesordener hurtigere end et menneske, fordi det er lavet af silicium i stedet for kød, eller fordi optimeringen fokuserer på at øge hastigheden i AGI’en. Biologiske neuroner arbejder med en hastighed på ca. 200 Hz, mens en moderne mikroprocessor arbejder med en hastighed på ca. 2.000.000.000.000 Hz. Menneskelige axoner transporterer aktionspotentialer med omkring 120 m/s, mens computersignaler bevæger sig nær lysets hastighed.
Et netværk af intelligenser på menneskeligt niveau, der er designet til at netværke sammen og dele komplekse tanker og erindringer problemfrit, og som er i stand til kollektivt at arbejde som et gigantisk forenet team uden friktion, eller som består af billioner af intelligenser på menneskeligt niveau, ville blive en “kollektiv superintelligens”.
Mere generelt kunne en hvilken som helst række kvalitative forbedringer af en AGI på menneskeligt niveau resultere i en “kvalitets-superintelligens”, hvilket måske ville resultere i en AGI, der i intelligens er lige så langt over os, som mennesker er over ikke-menneskelige aber. Antallet af neuroner i en menneskehjerne er begrænset af kranievolumen og stofskiftebegrænsninger, mens antallet af processorer i en supercomputer kan udvides i det uendelige. En AGI behøver ikke nødvendigvis at være begrænset af menneskelige begrænsninger på arbejdshukommelsen og kan derfor være i stand til intuitivt at forstå mere komplekse sammenhænge end mennesker kan. En AGI med specialiseret kognitiv støtte til ingeniørarbejde eller computerprogrammering ville have en fordel inden for disse områder sammenlignet med mennesker, som ikke har udviklet nogen specialiserede mentale moduler til specifikt at beskæftige sig med disse områder. I modsætning til mennesker kan en AGI skabe kopier af sig selv og pille ved sine kopiers kildekode for at forsøge at forbedre sine algoritmer yderligere.
Mulighed for at uvenlig AI går forud for venlig AIEdit
Er stærk AI i sagens natur farlig?Edit
Et væsentligt problem er, at uvenlig kunstig intelligens sandsynligvis vil være meget lettere at skabe end venlig AI. Mens begge kræver store fremskridt inden for design af rekursive optimeringsprocesser, kræver venlig AI også evnen til at gøre målstrukturer invariante under selvforbedring (ellers kunne AI’en forvandle sig selv til noget uvenligt) og en målstruktur, der er i overensstemmelse med menneskelige værdier og ikke automatisk ødelægger hele menneskeheden. En uvenlig AI kan på den anden side optimere for en vilkårlig målstruktur, som ikke behøver at være invariant under selvmodificering.
Den blotte kompleksitet af menneskelige værdisystemer gør det meget vanskeligt at gøre AI’s motivationer menneskevenlige. Medmindre moralfilosofien giver os en fejlfri etisk teori, vil en AI’s nyttefunktion kunne tillade mange potentielt skadelige scenarier, som er i overensstemmelse med en given etisk ramme, men ikke med “sund fornuft”. Ifølge Eliezer Yudkowsky er der ikke megen grund til at antage, at en kunstigt designet hjerne ville have en sådan tilpasning.
Odds for konfliktRediger
Mange forskere, herunder evolutionspsykologen Steven Pinker, hævder, at en superintelligent maskine sandsynligvis vil kunne eksistere fredeligt sammen med mennesker.
Frygten for cybernetisk oprør er ofte baseret på fortolkninger af menneskehedens historie, som er fyldt med episoder med slaveri og folkedrab. En sådan frygt stammer fra en tro på, at konkurrenceevne og aggression er nødvendig i ethvert intelligent væsens målsystem. Imidlertid stammer en sådan menneskelig konkurrenceevne fra den evolutionære baggrund for vores intelligens, hvor overlevelse og reproduktion af generne i forhold til menneskelige og ikke-menneskelige konkurrenter var det centrale mål. Ifølge AI-forsker Steve Omohundro kan en vilkårlig intelligens have vilkårlige mål: Der er ingen særlig grund til, at en kunstigt intelligent maskine (som ikke deler menneskehedens evolutionære kontekst) ville være fjendtlig – eller venlig – medmindre dens skaber programmerer den til at være det, og den ikke er tilbøjelig eller i stand til at ændre sin programmering. Men spørgsmålet er stadig: Hvad ville der ske, hvis AI-systemer kunne interagere og udvikle sig (evolution betyder i denne sammenhæng selvmodificering eller selektion og reproduktion) og skulle konkurrere om ressourcer – ville det skabe mål om selvbevarelse? AI’s mål om selvbevarelse kunne være i konflikt med nogle af menneskets mål.
Mange forskere bestrider sandsynligheden for et uventet kybernetisk oprør som skildret i science fiction som The Matrix og hævder, at det er mere sandsynligt, at enhver kunstig intelligens, der er stærk nok til at true menneskeheden, sandsynligvis ville være programmeret til ikke at angribe den. Pinker anerkender muligheden for bevidste “dårlige aktører”, men fastslår, at i mangel af dårlige aktører er uforudsete ulykker ikke en væsentlig trussel; Pinker hævder, at en kultur af teknisk sikkerhed vil forhindre AI-forskere i at slippe ondskabsfuld superintelligens løs ved et uheld. I modsætning hertil hævder Yudkowsky, at det er mindre sandsynligt, at menneskeheden vil blive truet af bevidst aggressiv KI end af KI, der er programmeret således, at dens mål utilsigtet er uforenelige med menneskets overlevelse eller velfærd (som i filmen I, Robot og i novellen “The Evitable Conflict”). Omohundro foreslår, at nutidens automatiseringssystemer ikke er designet med henblik på sikkerhed, og at AI’er måske blindt optimerer snævre nyttefunktioner (f.eks. at spille skak for enhver pris), hvilket får dem til at søge selvopretholdelse og eliminering af forhindringer, herunder mennesker, der kan slå dem fra.