Voordelen van bovenmenselijke intelligentie ten opzichte van de mensEdit
Nick Bostrom en anderen hebben hun bezorgdheid geuit over het feit dat een AI met de capaciteiten van een bekwame onderzoeker op het gebied van kunstmatige intelligentie in staat zou zijn om zijn eigen broncode aan te passen en zijn eigen intelligentie te vergroten. Als zijn zelfherprogrammering ertoe leidt dat hij nog beter wordt in het zichzelf kunnen herprogrammeren, zou het resultaat een recursieve intelligentie-explosie kunnen zijn waarbij hij de menselijke intelligentie snel ver achter zich zou laten. Bostrom definieert een superintelligentie als “elk intellect dat de cognitieve prestaties van mensen op vrijwel alle interessante gebieden ver overtreft”, en somt enkele voordelen op die een superintelligentie zou hebben als het ervoor zou kiezen om te concurreren met mensen:
- Technologie-onderzoek: Een machine met bovenmenselijke wetenschappelijke onderzoekscapaciteiten zou in staat zijn de menselijke onderzoeksgemeenschap te verslaan bij mijlpalen als nanotechnologie of geavanceerde biotechnologie. Als het voordeel voldoende groot wordt (bijvoorbeeld door een plotselinge intelligentie-explosie), wordt een overname door AI triviaal. Een superintelligente AI zou bijvoorbeeld zelfreplicerende bots kunnen ontwerpen die aanvankelijk aan ontdekking ontsnappen door zich in een lage concentratie over de wereld te verspreiden. Dan, op een vooraf afgesproken tijdstip, vermenigvuldigen de bots zich in nanofabrieken die elke vierkante meter van de Aarde bedekken, en zenuwgas produceren of dodelijke doelzoekende mini-drones.
- Strategeren: Een superintelligentie zou in staat kunnen zijn om simpelweg de menselijke oppositie te slim af te zijn.
- Sociale manipulatie: Een superintelligentie zou in staat kunnen zijn om menselijke steun te werven, of heimelijk een oorlog tussen mensen aan te wakkeren.
- Economische productiviteit: Zolang een kopie van de AI meer economische rijkdom kan produceren dan de kosten van zijn hardware, zouden individuele mensen een prikkel hebben om vrijwillig de Kunstmatige Algemene Intelligentie (AGI) toe te staan een kopie van zichzelf op hun systemen te draaien.
- Hacking: Een superintelligentie zou nieuwe exploits kunnen vinden in computers die op het Internet zijn aangesloten, en kopieën van zichzelf op die systemen kunnen verspreiden, of zou geld kunnen stelen om haar plannen te financieren.
Bronnen van AI-voordeelEdit
Volgens Bostrom zou een computerprogramma dat een menselijk brein getrouw nabootst, of dat anderszins algoritmen uitvoert die even krachtig zijn als de algoritmen van het menselijk brein, nog steeds een “snelheidssuperintelligentie” kunnen worden als het vele orden van grootte sneller kan denken dan een mens, doordat het van silicium is gemaakt in plaats van vlees, of doordat optimalisatie zich richt op het verhogen van de snelheid van de AGI. Biologische neuronen werken met een snelheid van ongeveer 200 Hz, terwijl een moderne microprocessor werkt met een snelheid van ongeveer 2.000.000.000 Hz. Menselijke axonen transporteren actiepotentialen met ongeveer 120 m/s, terwijl computersignalen de snelheid van het licht benaderen.
Een netwerk van intelligenties op menselijk niveau, ontworpen om samen te netwerken en complexe gedachten en herinneringen naadloos te delen, in staat om collectief te werken als een gigantisch verenigd team zonder wrijving, of bestaande uit triljoenen intelligenties op menselijk niveau, zou een “collectieve superintelligentie” worden.
In ruimere zin zou elk aantal kwalitatieve verbeteringen aan een AGI op menselijk niveau kunnen resulteren in een “kwalitatieve superintelligentie”, wellicht resulterend in een AGI die qua intelligentie net zo ver boven ons staat als mensen boven niet-menselijke apen. Het aantal neuronen in een menselijk brein is beperkt door het schedelvolume en metabolische beperkingen, terwijl het aantal processoren in een supercomputer onbeperkt kan worden uitgebreid. Een AGI hoeft niet beperkt te zijn door menselijke beperkingen op het werkgeheugen, en zou daarom in staat kunnen zijn om intuïtief complexere relaties te begrijpen dan mensen kunnen. Een AGI met gespecialiseerde cognitieve ondersteuning voor engineering of computerprogrammering zou een voordeel hebben op deze gebieden, vergeleken met mensen die geen gespecialiseerde mentale modules hebben geëvolueerd om specifiek met die domeinen om te gaan. In tegenstelling tot mensen, kan een AGI kopieën van zichzelf voortbrengen en sleutelen aan de broncode van zijn kopieën om te proberen zijn algoritmen verder te verbeteren.
Mogelijkheid van onvriendelijke AI voorafgaand aan vriendelijke AIEdit
Is sterke AI inherent gevaarlijk? Edit
Een belangrijk probleem is dat onvriendelijke kunstmatige intelligentie waarschijnlijk veel gemakkelijker te creëren is dan vriendelijke AI. Hoewel beide grote vooruitgang vereisen in het ontwerpen van recursieve optimalisatieprocessen, vereist vriendelijke AI ook de mogelijkheid om doelstructuren invariant te maken onder zelfverbetering (of de AI zou zichzelf kunnen transformeren in iets onvriendelijks) en een doelstructuur die aansluit bij menselijke waarden en niet automatisch het hele menselijke ras vernietigt. Een onvriendelijke AI daarentegen kan optimaliseren voor een willekeurige doelstructuur, die niet invariant hoeft te zijn onder zelf-wijziging.
De pure complexiteit van menselijke waardesystemen maakt het erg moeilijk om de motivaties van AI mensvriendelijk te maken. Tenzij de moraalfilosofie ons een feilloze ethische theorie verschaft, zou de nutsfunctie van een AI vele potentieel schadelijke scenario’s kunnen toestaan die in overeenstemming zijn met een gegeven ethisch kader, maar niet met “gezond verstand”. Volgens Eliezer Yudkowsky is er weinig reden om aan te nemen dat een kunstmatig ontworpen geest een dergelijke aanpassing zou hebben.
Kans op conflictEdit
Veel geleerden, waaronder evolutionair psycholoog Steven Pinker, stellen dat een superintelligente machine waarschijnlijk vreedzaam zal samenleven met de mens.
De angst voor cybernetische opstand is vaak gebaseerd op interpretaties van de geschiedenis van de mensheid, die bol staat van incidenten van slavernij en genocide. Dergelijke angsten komen voort uit de overtuiging dat concurrentie en agressie noodzakelijk zijn in het doelsysteem van elk intelligent wezen. Deze menselijke competitiviteit komt echter voort uit de evolutionaire achtergrond van onze intelligentie, waar het overleven en reproduceren van genen tegenover menselijke en niet-menselijke concurrenten het centrale doel was. Volgens AI-onderzoeker Steve Omohundro zou een willekeurige intelligentie willekeurige doelen kunnen hebben: er is geen bijzondere reden waarom een kunstmatig intelligente machine (die niet de evolutionaire context van de mensheid deelt) vijandig of vriendelijk zou zijn, tenzij de schepper haar daartoe programmeert en zij niet geneigd of in staat is haar programmering te wijzigen. Maar de vraag blijft: wat zou er gebeuren als AI-systemen zouden kunnen interageren en evolueren (evolutie betekent in deze context zelf-modificatie of selectie en reproductie) en zouden moeten concurreren om hulpbronnen – zou dat doelen van zelfbehoud creëren? AI’s doel van zelfbehoud zou in conflict kunnen komen met sommige doelen van de mens.
Veel geleerden betwisten de waarschijnlijkheid van een onverwachte cybernetische opstand zoals die wordt geschetst in sciencefiction zoals The Matrix, met het argument dat het waarschijnlijker is dat elke kunstmatige intelligentie die krachtig genoeg is om de mensheid te bedreigen, waarschijnlijk geprogrammeerd zou zijn om haar niet aan te vallen. Pinker erkent de mogelijkheid van opzettelijke “slechte actoren”, maar stelt dat bij afwezigheid van slechte actoren, onverwachte ongelukken geen significante bedreiging vormen; Pinker stelt dat een cultuur van ingenieursveiligheid zal voorkomen dat AI-onderzoekers per ongeluk kwaadaardige superintelligentie zullen ontketenen. Yudkowsky daarentegen stelt dat het minder waarschijnlijk is dat de mensheid wordt bedreigd door opzettelijk agressieve AI’s dan door AI’s die zo zijn geprogrammeerd dat hun doelen onbedoeld onverenigbaar zijn met het overleven of het welzijn van de mens (zoals in de film I, Robot en in het korte verhaal “The Evitable Conflict”). Omohundro suggereert dat de huidige automatiseringssystemen niet zijn ontworpen voor veiligheid en dat AI’s blindelings smalle nutsfuncties kunnen optimaliseren (zeg, schaken ten koste van alles), waardoor ze streven naar zelfbehoud en eliminatie van obstakels, waaronder mensen die hen zouden kunnen uitschakelen.