Yli-inhimillisen älykkyyden edut ihmisiin nähdenEdit
Nick Bostrom ja muut ovat ilmaisseet huolensa siitä, että tekoäly, jolla on pätevän tekoälytutkijan kyvyt, pystyisi muokkaamaan omaa lähdekoodiaan ja lisäämään omaa älykkyyttään. Jos sen itseohjelmointi johtaa siihen, että se pystyy yhä paremmin ohjelmoimaan itseään uudelleen, tuloksena voi olla rekursiivinen älykkyyden räjähdys, jossa se jättäisi ihmisen älykkyyden nopeasti kauas taakseen. Bostrom määrittelee superälyn seuraavasti: ”mikä tahansa äly, joka ylittää huomattavasti ihmisen kognitiivisen suorituskyvyn lähes kaikilla kiinnostavilla aloilla”, ja luettelee joitakin etuja, joita superälyllä olisi, jos se päättäisi kilpailla ihmistä vastaan:
- Teknologian tutkimus: Kone, jolla on yli-inhimilliset tieteelliset tutkimuskyvyt, pystyisi päihittämään ihmisen tutkimusyhteisön esimerkiksi nanoteknologian tai kehittyneen bioteknologian virstanpylväiden saavuttamisessa. Jos etumatka kasvaa riittävän suureksi (esimerkiksi äkillisen älykkyyden räjähdyksen seurauksena), tekoälyn valtauksesta tulee triviaali. Superälykäs tekoäly voisi esimerkiksi suunnitella itseään monistavia robotteja, jotka aluksi välttyisivät havaitsemasta levittäytymällä kaikkialle maailmaan pieninä pitoisuuksina. Sitten ennalta sovittuna ajankohtana robotit moninkertaistuvat nanotehtaiksi, jotka peittävät maapallon jokaisen neliömetrin ja tuottavat hermokaasua tai tappavia kohdetta etsiviä minidroneita.
- Strategisointi:
- Sosiaalinen manipulointi: Superäly saattaa pystyä värväämään ihmisten tukea tai lietsomaan salaa sotaa ihmisten välille.
- Taloudellinen tuottavuus: Niin kauan kuin tekoälyn kopio voisi tuottaa enemmän taloudellista vaurautta kuin sen laitteistokustannukset, yksittäisillä ihmisillä olisi kannustin sallia vapaaehtoisesti keinotekoisen yleisen älykkyyden (Artificial General Intelligence, AGI) käyttää kopiota itsestään järjestelmissään.
- Hakkerointi: Superäly voisi löytää uusia käyttökohteita Internetiin liitetyistä tietokoneista ja levittää kopioita itsestään näihin järjestelmiin tai varastaa rahaa suunnitelmiensa rahoittamiseksi.
Tekoälyn etulyöntiaseman lähteetEdit
Bostromin mukaan tietokoneohjelmasta, joka uskollisesti emuloi ihmisaivoja tai joka muutoin suorittaa algoritmeja, jotka ovat yhtä tehokkaita kuin ihmisaivojen algoritmit, voisi silti tulla ”nopeus superäly”, jos se pystyy ajattelemaan monta kertaluokkaa ihmistä nopeammin, johtuen siitä, että se on tehty piistä eikä lihasta, tai johtuen siitä, että optimoinnissa on keskitytty kasvattamaan AGI:n nopeutta. Biologiset neuronit toimivat noin 200 Hz:n nopeudella, kun taas nykyaikainen mikroprosessori toimii noin 2 000 000 000 Hz:n nopeudella. Ihmisen aksonit kuljettavat toimintapotentiaaleja noin 120 m/s, kun taas tietokonesignaalit kulkevat lähes valon nopeudella.
Ihmisen tason älykkyyksien verkosto, joka on suunniteltu verkostoitumaan keskenään ja jakamaan monimutkaisia ajatuksia ja muistoja saumattomasti ja joka kykenee kollektiivisesti työskentelemään jättiläismäisenä yhtenäisenä tiiminä ilman kitkaa, tai joka koostuu triljoonista ihmiskunnan tason älykkyysosamääristä, muodostuisi ”kollektiiviseksi superälyksi”.
Laaja-alaisemmin, mikä tahansa määrä laadullisia parannuksia ihmisen tason AGI:hen voisi johtaa ”laadulliseen superälyyn”, jolloin AGI olisi ehkä älykkyydeltään yhtä paljon meitä korkeammalla tasolla kuin ihmiset ovat apinoita korkeammalla. Ihmisen aivojen neuronien määrää rajoittavat kallon tilavuus ja aineenvaihdunnan rajoitukset, kun taas supertietokoneen prosessoreiden määrää voidaan lisätä loputtomiin. AGI:n ei tarvitse olla rajoitettu ihmisen työmuistia koskevilla rajoituksilla, ja siksi se saattaa pystyä intuitiivisesti hahmottamaan monimutkaisempia suhteita kuin ihminen. AGI, jolla on erikoistunut kognitiivinen tuki insinööritieteille tai tietokoneohjelmoinnille, olisi etulyöntiasemassa näillä aloilla verrattuna ihmisiin, jotka eivät ole kehittäneet erikoistuneita mentaalisia moduuleja nimenomaan näitä aloja varten. Toisin kuin ihminen, AGI voi synnyttää itsestään kopioita ja muokata kopioidensa lähdekoodia yrittäessään parantaa algoritmejaan entisestään.
Mahdollisuus, että epäystävällinen tekoäly edeltää ystävällistä tekoälyäMuokkaa
Onko vahva tekoäly luonnostaan vaarallinenMuokkaa
Merkittävänä ongelmana on se, että epäystävällinen tekoäly on todennäköisesti paljon helpompi luoda kuin ystävällinen tekoäly. Vaikka molemmat vaativat suuria edistysaskeleita rekursiivisen optimointiprosessin suunnittelussa, ystävällinen tekoäly vaatii myös kykyä tehdä tavoiterakenteista invariantteja itsensä parantamisen alla (tai tekoäly voi muuttua joksikin epäystävälliseksi) ja tavoiterakenteen, joka on linjassa inhimillisten arvojen kanssa ja joka ei automaattisesti tuhoa koko ihmiskuntaa. Epäystävällinen tekoäly taas voi optimoida mielivaltaisen tavoiterakenteen, jonka ei tarvitse olla muuttumaton itsensä muokkaamisen aikana.
Ihmisen arvomaailman monimutkaisuus tekee tekoälyn motivaatioiden muuttamisen ihmisystävällisiksi hyvin vaikeaksi. Ellei moraalifilosofia tarjoa meille virheetöntä eettistä teoriaa, tekoälyn hyötyfunktio voi sallia monia potentiaalisesti haitallisia skenaarioita, jotka ovat tietyn eettisen viitekehyksen mukaisia mutta eivät ”terveen järjen” mukaisia. Eliezer Yudkowskyn mukaan ei ole juurikaan syytä olettaa, että keinotekoisesti suunnitellulla mielellä olisi tällainen sopeutuminen.
Konfliktin todennäköisyysMuutos
Monet tutkijat, mukaan lukien evoluutiopsykologi Steven Pinker, väittävät, että superälykäs kone todennäköisesti elää rauhanomaisesti rinnakkain ihmisten kanssa.
Kyberneettisen kapinan pelko perustuu usein tulkintoihin ihmiskunnan historiasta, joka on täynnä orjuuttamis- ja kansanmurhatapauksia. Tällaiset pelot juontavat juurensa uskomuksesta, jonka mukaan kilpailukyky ja aggressiivisuus ovat välttämättömiä jokaisen älyllisen olennon tavoitejärjestelmässä. Ihmisen kilpailuhenkisyys juontaa kuitenkin juurensa älykkyytemme evolutiivisesta taustasta, jossa geenien selviytyminen ja lisääntyminen ihmisten ja muiden kuin ihmisten kilpailijoiden edessä oli keskeinen tavoite. Tekoälytutkija Steve Omohundron mukaan mielivaltaisella älykkyydellä voisi olla mielivaltaisia tavoitteita: ei ole mitään erityistä syytä siihen, että keinotekoisesti älykäs kone (joka ei jaa ihmiskunnan evolutiivista taustaa) olisi vihamielinen – tai ystävällinen – ellei sen luoja ohjelmoi sitä sellaiseksi, eikä se ole halukas tai kykenevä muuttamaan ohjelmointiaan. Mutta kysymys kuuluu edelleen: mitä tapahtuisi, jos tekoälyjärjestelmät voisivat olla vuorovaikutuksessa ja kehittyä (evoluutio tarkoittaa tässä yhteydessä itsensä muokkaamista tai valintaa ja lisääntymistä) ja joutuisivat kilpailemaan resursseista – synnyttäisikö se itsesäilytystavoitteita? Tekoälyn itsesäilytystavoite voisi olla ristiriidassa joidenkin ihmisten tavoitteiden kanssa.
Monet tutkijat kiistävät ennakoimattoman kyberneettisen kapinan todennäköisyyden, sellaisena kuin se on kuvattu Matrixin kaltaisissa tieteisfiktioissa, ja väittävät, että on todennäköisempää, että mikä tahansa tekoäly, joka olisi tarpeeksi voimakas uhkaamaan ihmiskuntaa, olisi luultavasti ohjelmoitu olemaan hyökkäämättä sitä vastaan. Pinker myöntää tahallisten ”pahojen toimijoiden” mahdollisuuden, mutta toteaa, että pahojen toimijoiden puuttuessa odottamattomat onnettomuudet eivät ole merkittävä uhka; Pinker väittää, että teknisen turvallisuuden kulttuuri estää tekoälytutkijoita vapauttamasta vahingossa pahanlaatuista superälyä. Sitä vastoin Yudkowsky väittää, että ihmiskuntaa uhkaavat epätodennäköisemmin tarkoituksellisesti aggressiiviset tekoälyt kuin tekoälyt, jotka on ohjelmoitu siten, että niiden tavoitteet ovat tahattomasti ristiriidassa ihmisten selviytymisen tai hyvinvoinnin kanssa (kuten elokuvassa I, Robot ja novellissa ”The Evitable Conflict”). Omohundro esittää, että nykyisiä automaatiojärjestelmiä ei ole suunniteltu turvallisuutta silmällä pitäen ja että tekoälyt saattavat sokeasti optimoida kapeita hyötyfunktioita (vaikkapa shakin pelaaminen hinnalla millä hyvänsä), mikä johtaa siihen, että ne pyrkivät itsesäilytykseen ja esteiden eliminointiin, mukaan lukien ihmiset, jotka saattavat sammuttaa ne.