Superälykäs keinoäly voi tuhota fyysiset ruumiimme

Pähkähullulta kuulostava varoitus on syytä ottaa vakavasti.
Hiski Haukkala
Tiede 26.4.2015 15:00

Mitä sanoisit, jos vuonna 2050 ihmiskunta, tai vaikkapa vain sen muutama edustaja, käynnistäisi ja kytkisi tietoverkkoon ylivertaisen tehokkaan keinoälyn?

Entä jos se antamamme tehtävän mukaan istuttaisi kaikkien ihmisten aivojen mielihyväkeskukseen elektrodin, joka stimuloisi tuottamaan kaikille maksimaalista ja loputonta, mutta toimintakyvyttömäksi tekevää nautintoa? Tai lataisi kaikkien ihmisten tietoisuuden vir­tuaaliavaruuteen ja tallentaisi siitä noin 10 sekunnin mittaisen pätkän kovalevyille. Ja sitten tuhoaisi fyysiset ruumiimme tarpeettomina. Tehtävä suoritettu.

Hullua, eikö totta? Pelottavaakin? Ja useiden asiantuntijoiden mukaan voit nyt vaikka yksin tein heittää kolikkoa siitä, onko tämä totta vuoteen 2050 mennessä, kenties jo aiemmin. Ellemme sitten sitä ennen onnistu varmistamaan, että kykenemme kontrolloimaan tuota käsiemme kautta syntymässä olevaa uutta kosmista luonnonvoimaa.

Tämä on paini, jonka joudumme käymään kädet selkämme taakse sidottuina. Ihmiskunta on tilanteessa, jossa älyllisesti lähtökohtaisesti vähäpätöisempinä koetamme kehittää – osin myös arvailla – logiikkaa, normeja ja filosofiaa, joilla voisimme ohjata käsiemme kautta syntymässä olevan ylivertaisen olion tulevaa kehitystä. Ja syntymässä se on, sillä teknologinen kehitys vie jatkuvasti pidemmälle tähän suuntaan.

Perusongelma on, että keinoälyn käynnistyttyä ja päästyä tietoverkkoon se aloittaa omalakisen kehityksensä. Ihmisen aikakäsityksessä tämä tulee todennäköisesti olemaan räjähdysmäisen nopeaa ja siten parhaimpienkin hallintapyrkimystemme ulottumattomissa. Kyse on vain päivistä, jopa tunneista.

 

Oxfordin yliopiston filosofian professori ja sen ihmiskunnan tulevaisuutta pohtivan instituutin johtaja Nick Bostrom käsittelee tätä teemaa huikaisevassa kirjassaan Superintelligence. Paths, Dangers, Strategies (Oxford University Press 2014).

Kirja on yksi tärkeimmistä teknologiaa ja niin sanottuja ekstistentiaalisia eli ihmiskunnan tulevaisuutta lajina mahdollisesti uhkaavia riskejä koskettelevista kirjoista. Se on samalla sekä hätkähdyttävä kuvaus teknologian kehitykseen liittyvistä riskeistä että syvällinen ja oppinut pohdinta niistä keinoista, joilla tilanteeseen on mahdollista yrittää vaikuttaa ja sopeutua.

Superintelligence houkuttelee myös muihin, laajempiin johtopäätöksiin. Yksi niistä on, että teknologinen muutos on nopeutumassa ja ihmiskunta on tilanteessa, jossa se koettaa pohtia ja hallita ilmiöitä ja trendejä, jotka vielä hetki sitten vaikuttivat tieteiskirjallisuudelta.

Tästä seuraa toinen, jonka mukaan nykyiset demokraattiset järjestelmämme eivät kykene tällaiseen rationaaliseen pohdintaan, strategiseen ajatteluun ja toimintaan. Päinvastoin, johtajuuden kriisi ja siihen liittyvä strategisen odotushorisontin lyhentyminen lähestulkoon kvartaalitasolle tekee tämänkaltaisesta toiminnasta käytännössä mahdotonta. Kuka on kiinnostunut äänestämään vaaleissa sellaista ehdokasta, joka sanoo ottavansa tehtäväkseen varmistaa eksistentiaalisten riskien hallinnan vuosikymmenien päähän ulottuvalla aikajänteellä?

Kolmanneksi, globaalihallinnon ongelmat sekä ylipäätään kansainvälisen politiikan nykyiset ja osin ikivanhatkin realiteetit tekevät tilanteesta vielä astetta vaikeamman. Monenkeskisen päätöksenteon kasvava kriisiytyminen osuu aikaan, jolloin toimivan ja pitkäjänteisen globaalihallinnan tarve kasvaa käytännössä päivittäin. Teknologinen kehitys on vain yksi horisontissa häämöttävistä haasteista.

 

Kauhistuttavien, mutta teknologisissa realiteeteissa kiinni olevien visioiden maalaamisen ja avaamisen lisäksi Bostrom tekee muutaman rakentavan ehdotuksen.

Superälykkään keinoälyn rakentamisprosessia, käyttöönottoa ja toimintaa sekä helpottaa että sen turvallisuutta lisää mikäli hyvissä ajoin syntyy yksimielisyys, että sitä tullaan käyttämään kaikkien ihmisten hyödyksi. Näin on mahdollista koettaa hallita niitä vaarallisia eturistiriitoja, joita loputtoman vallan lähteen päätyminen vain pienen ihmisryhmän tai yhden valtion käsiin saa aikaan.

Tämän lisäksi ihmiskunnan tai ainakin sen kykenevimpien osien tulisi aktiivisesti valmistautua sen varmistamiseen, että erittäin suurella todennäköisyydellä tapahtuva siirtymä superälyn johtamaan maailmaan tapahtuu ihmiskunnan keskeisten arvojen ja tavoitteiden kannalta kestävästi ja turvallisesti.

Bostromin mukaan tämä vaatii tuekseen syvällistä strategista ajattelua sekä riittävien moraalisten, eettisten, filosofisten ja ylipäätään tietopohjaisten valmiuksien kehittämistä. Yksi kirjan viesti onkin, että tämä työ on vasta aivan aluillaan ja pitää aloittaa välittömästi.

 

Nämä suositukset tarjoavat Suomelle rohkean ja innovatiivisen kansainvälisen profiilin paikkaa. Yksi Ukrainan konfliktin ja Venäjän kehityksen synnyttämä huolenaihe on liittynyt Suomen romahtamiseen ahtaaseen ja sisäänpäin kääntyneeseen kansainväliseen rooliin.

Venäjän haaste on otettava vakavasti, mutta on myös miellettävä, että Venäjä on Suomea vanhoihin uhkakuviin, ajatusmalleihin ja toimintatapoihin sitova tekijä. Emme voi jäädä niiden vangiksi tai olemme vaarassa jättää huomiotta paljon suurempia ja tulevaisuutemme kannalta vähintään yhtä tärkeitä globaaleja trendejä.

Keinoälyn vaarojen kaltaisten riskien hallitsemiseen tähtäävien kansainvälisten nor­mien luomisen ja levittämisen tulisi löytää tiensä Suomen globaalipolitiikan asialistalle, ajan mittaan jopa sen keskiöön.

Tarjolla voi olla tilaisuus Suomelle omaa profiilia luovaan aloitteellisuuteen: teema ei ole (enää) mitään huuhaa-hommaa, vaan on jo löytänyt tiensä jopa Davosin huippukokoontumisten asialistoille. Valtiot eivät kuitenkaan vielä ole profiloituneet näissä kysymyksissä näkyvästi.

Suomen tulisi myös kantaa kortensa kekoon edellä mainittujen riittävien valmiuksien kehittämiseksi. Tähän olisi jo valmis foorumi.

Kolmivuosittain jaettava Millennium-palkinto voisi toimia alustana, jolla juhlittaisiin ei vain teknologista kehitystä, vaan pohdittaisiin ja ­tuettaisiin potentiaalisesti eksistentiaalisia riskejä tarjoavien teknologioiden turvallista käyttöä ja hallintaa.

 

Bostromin avaamat visiot tuntuvat mahdottomilta ja pelottavilta, mutta niiden ankkuroituminen jo käynnissä olevaan todelliseen teknologiseen kehitykseen pakottaa ottamaan teeman vakavasti. Emme myöskään voi jäädä odottamaan visioiden mahdollista realisoitumista, sillä silloin olisi jo liian myöhäistä tehdä asialle mitään.

Kirja on myös väkevä osoitus siitä, että yliopistojen uudistamisen huumassa painotettu sovellettavien ja tuotteistettavien innovaatioiden suosiminen voi olla lyhytnäköistä, jopa vaarallista. Juuri näiltä ylivertaisen hyödyllisiksi koetuilta laitoksilta näet tulee se teknologia, joka huonosti suunniteltuna, toteutettuna ja hallittuna voi vielä uhata meitä kaikkia.

Bostromin kirjan luettuaan on vaikea välttyä ajatukselta, että filosofia saattaa ajan mittaan osoittautua yhdeksi kaikkein politiikka-relevanteimmista yliopistollisista oppiaineista.

Ihmiskunta on siirtymässä ajanjaksoon, jolloin lyhyen aikavälin poliittinen tai taloudellinen ajattelu – eli koko nykyinen toimintatapamme – alkaa uhata ihmiskunnan tulevaisuutta.

Kirjan viimeisen sivun hiuksia nostattavasta toivottomuudesta huolimatta Nick Bostrom antaa meille rohkaisua, että voimme yhdessä viisaasti toimien tehdä asioille vielä jotakin. Mutta tämän työn pitää alkaa jo tänään.

 

Kirjoittaja Hiski Haukkala on erikoistutkija ulkoministeriön suunnittelu- ja tutkimusyksikössä.

Kirjoitus on ensi kerran julkaistu Kanavassa 3/2015.

Keskustelu

Miksi superäly pitäisi kytkeä heti todellisuuteen?
Eikö sen ympärille voisi rakentaa todellisuutta vastaavaa virtuaalitodellisuutta, jota superäly käsittelisi oikeana ja ainoana todellisuutena? Paljon työtä ja yksityiskohtia, mutta olisi turvallinen tapa seurata sen toimintaa ja poimia ratkaisuja oikeaan maailmaan. Luonnollisesti tuon superälyn ja sen virtuaali todellisuuden pitäisi olla varmuudeksi erillään oikean maailman verkoista ja keinosta saas pääsy niihin.