Mitä tapahtuu, jos ihminen luo itseään älykkäämmän tekoälyn? – Sellaista ei voisi mitenkään pysäyttää, varoittaa tuore tutkimus

Jo nyt on olemassa koneita, joiden toimintaa edes niiden ohjelmoijat eivät kunnolla ymmärrä.
Tiede 14.1.2021 07:28
Supertietokone. Kuvituskuva.
© LEHTIKUVA / HANDOUT / CSC DATACENTER

Tekoälystä ja roboteista on spekuloitu tietojenkäsittelytieteissä ja tieteisfiktiossa vuosikymmenten ajan, mutta teknologian hitaan kehityksen vuoksi vasta viime vuosina on alettu nähdä alkeellisia versioita scifin visioista älykkäistä laitteista.

Esimerkiksi vuoden 2020 lopulla maailman edistyneimpiä käveleviä robotteja valmistava yhdysvaltalaisyhtiö Boston Dynamics julkaisi uusimpien robottimalliensa tanssiesityksen videona Youtubessa.

Yhtiön luomat kahdella jalalla kävelevät humanoidirobotit muistuttavat jo suuresti Tähtien sotien ja muun fiktion visioita ihmismäisiä robottja, vaikka erityisen älykkäitä ne eivät olekaan.

Kävelevät robotit, puheohjatut Alexa- ja Siri-avustajat sekä itseohjautuvat autot ovat vielä kaukana vahvasta yleistekoälystä, joka vetäisi vertoja ihmiselle kaikissa mahdollisissa älyllisissä toiminnoissa.

Koneoppimista käyttävät ohjelmat ovat oppineet päihittämään ihmisen tietyissä tarkasti määritellyissä tehtävissä, kuten vaikkapa lautapeleissä. Ne eivät pysty kuitenkaan luovaan ongelmanratkaisuun tai päättelykykyyn näiden raamien ulkopuolella.

Vahva tekoäly sen sijaan pystyisi ratkaisemaan ajattelua vaativia ongelmia kaikilla samoilla alueilla kuin ihminenkin. Jos tällainen tekoäly koskaan onnistuttaisiin luomaan, sen pelätään johtavan nopeasti tieteisfiktion maalailemaan kauhukuvaan jumalkoneesta, joka riistäytyisi luojiensa kontrollista.

Tällainen vapaa tekoäly voisi tarkoitusperistään riippuen saada paljon tuhoa aikaan tai jopa hävittää ihmiskunnan, monet futuristit pelkäävät. Tekoälyn teoriaa tutkivat ovatkin pyrkineet löytämään ratkaisua, jolla tulevaisuuden tekoälyä pystyttäisiin rajoittamaan ja estämään sen muodostuminen vaaraksi.

 

Tuoreessa tekoälytutkimuksen tieteellisessä julkaisussa Journal of Artificial Intelligence Research ilmestyneessä artikkelissa esitetään synkkä lopputulos: superälykästä tekoälyä ei voida mitenkään pysäyttää, jos sellainen onnistutaan luomaan.

Artikkelin kirjoittajien mukaan ongelma liittyy siihen, että paraskin algoritmi voi ratkaista vain ongelman, joka voidaan ratkaista laskemalla. Superälykkään tekoälyn rajoittamisessa sen sijaan liikkuvia osia on niin paljon, ettei mikään algoritmi voi suojata ihmiskuntaa täysin tekoälyltä.

”Superälykäs, maailmaa hallitseva kone kuulostaa tieteisfiktiolta, mutta on jo olemassa koneita, jotka suorittavat tiettyjä tärkeitä tehtäviä ilman, että niiden ohjelmoijat täysin ymmärtävät sitä, miten ne oppivat ne,” sanoo tiedotteessa artikkelin kirjoittajiin kuuluva Manuel Cebrian. ”Kysymys on siitä, voiko tämä kehitys joskus riistäytyä hallinnasta ja muuttua vaaralliseksi ihmisille.”

Tutkijoiden laskelmistaan tekemä teoreettinen päätelmä on se, että supertekoälyä joka tilanteessa rajoittavan raudanlujan algoritmin rakentaminen on mahdotonta ainakaan nykyisen kaltaisilla tietokoneilla, koska ongelma ei ole algoritmin ratkaistavissa.

Artikkelin mukaan ainoa tapa luoda turvallinen supertekoäly on rakentaa se täysin eristyksissä internetistä ja tietoliikenteestä. Jopa tässä tapauksessa tekoäly saattaisi huijata sen kanssa viestiviä ihmisiä, joten vielä turvallisempaa olisi rajoittaa sen viestintätapoja ihmisten kanssa.

Tämä tarkoittaisi käytännössä sitä, että ainoa turvallinen supertekoäly olisi rampautettu koneaivo, josta ei ole hyötyä kenellekään. Tekoälyjen tuomat taloudelliset ja tieteelliset hyödyt voivat kuitenkin olla valtavia, joten ihminen tuskin osaisi vastustaa houkutusta.

 

Artikkelissa nähdään ongelmaksi myös se, että superälykäs tekoäly saattaa jopa syntyä vahingossa ilman, että ihmiset olisivat asiaa suunnitelleet tai olisivat siitä tietoisia.

”Emme välttämättä tiedä, milloin superälykkäät koneet ovat saapuneet, sillä sen määrittely, onko kone älykäs, on samanlainen ongelma kuin (superälyn) eristämisen ongelma,” tutkijat kirjoittavat.

Ihminen on jo luovuttanut paljon päätäntävaltaa koneälyille tietyillä elämän aloilla. Tunnetuin esimerkki ovat osakemarkkinat ja pörssit, joiden kaupankäynti on ollut jo pitkään ihmistä paljon nopeampien algoritmien hoidossa, koska se on tuottanut suurimmat voitot ihmisille.

Tuhoisa seuraus nähtiin vuonna 2010, jolloin huippunopeaa kaupankäyntiä harjoittavien algoritmien ohjelmoinnin arvellaan osaltaan aiheuttaneen 36 minuuttia kestäneen pörssiromahduksen, joka pyyhki noin biljoona dollaria Yhdysvaltain osakemarkkinoilta.

 

Tekoälyjä rajoittavien algoritmien ajatuksen alullepanijana pidetään tieteiskirjailijaa ja biokemistiä Isaac Asimovia, jonka muotoilemat robotiikan kolme pääsääntöä oli suunniteltu suojelemaan ihmisiä luomuksiltaan:

1) Robotti ei saa vahingoittaa ihmisolentoa tai laiminlyönnein saattaa tätä vahingoittumaan.

2) Robotin on noudatettava ihmisolentojen sille antamia määräyksiä, paitsi jos ne ovat ristiriidassa Ensimmäisen pääsäännön kanssa.

3) Robotin on suojeltava omaa olemassaoloaan, kuitenkin siten, että sen toimet eivät ole ristiriidassa Ensimmäisen ja Toisen pääsäännön kanssa.

(suom. Matti Kannosto)

Petollisen yksinkertaisilta ja vedenpitäviltä näyttävät pääsäännöt saattavat kuitenkin vaikeasti ennustettavissa tilanteissa johtaa pahoihin ongelmiin robottien tulkitessa sääntöjä odottamattomilla tavoilla. Monet Asimovin tarinoista käsittelivät tilanteita, joissa säännöt eivät toimisikaan.

Ihmiselle vaarattoman robotin suunnittelu olisi vielä astetta yksinkertaisempi tehtävä kuin turvallisen aineettoman tekoälyn luonti, sillä tietoverkoissa vapaasti kasvavien tekoälyjen voimat olisivat valtavia.

 

Mitään varmuutta ei ole siitä, toteutuvatko ennustukset vahvoista tekoälyistä ja milloin. Erimielisyyttä on yhä siitäkin, onko ihmismielen kaltainen tai sen ylittävä tietoinen tekoäly edes teoriassa mahdollista rakentaa tietokoneissa.

”Todellinen tekoäly ei ole loogisesti mahdoton ajatus, mutta se on kerta kaikkisen epäuskottava. Meillä ei ole aavistustakaan siitä, miten voisimme rakentaa sellaisen,” arvosteli Oxfordin yliopiston filosofian ja informaatioetiikan professori Luciano Floridi tekoälyhypeä vuonna 2016.

”Meillä on hyvin vähän ymmärrystä edes siitä, miten omat aivomme ja älykkyytemme toimivat.”