Tekoälykeskusteluun enemmän Honkelaa kuin Hararia

Profiilikuva
Kirjoittaja Tiina Raevaara on filosofian tohtori ja kirjailija.
5 MIN

Yuval Noah Harari on historioitsija ja tietokirjailija, joka yrittää kirjoissaan rakentaa uudenlaisia näkökulmia ihmiskunnan menneisyyteen ja tulevaisuuteen. Hararin teokset, etunenenässä Sapiens ja Homo Deus, ovat olleet valtavan suosittuja ympäri maailman. 

Kirjailijana en voi kuin kadehtia sitä visionäärin ja tulkitsijan asemaa, joka hänelle on annettu. Harari pyrkii näkemään säännönmukaisuuksia ja suuria kaaria ihmiskunnan tekemisissä. Arvostan tätä pyrkimystä, mutta vaarana niissä on tietenkin se, että paljon jää pois, vaihtoehtoiset selitysmallit unohtuvat ja käsitykset yksipuolistuvat. 

Hararin uusin kirja, Nexus: Tietoverkkojen lyhyt historia ilmestyi juuri niin englanniksi kuin suomeksikin. Kustantajan tiedotteen mukaan kirja käsittelee laajasti “niin tiedon välittämisen menneisyyttä ja tulevaisuutta kuin tekoälyäkin”. 

Helsingin Sanomien toimittaja Niclas Storås ei Hararin tämänkertaisia visioita kuitenkaan arvostanut. Hänestä tietokirjailijan käsitykset tekoälystä ovat naiiveja ja perustuvat pitkälti väärinkäsitykseen: Harari väittää kirjassaan, että GPT-kielimalli olisi luonut tilin somepalveluun ja teeskennellyt olevansa ihminen. Testissä, johon kirjailija viittaa, ei näin kuitenkaan käynyt eikä olisi voinutkaan käydä. 

”Kokeen ymmärtäminen väärin luo pohjan väärinkäsitykselle, jota voisi kutsua naiiviksi käsitykseksi tekoälystä. Harari kuvaa kirjassaan, että algoritmit ja tekoäly ovat jo muuttuneet toimijoiksi, jotka tekevät itsenäisiä päätöksiä. Se ei pidä paikkansa”, Storås kirjoittaa. Hänen mielestään Hararin väärinkäsitys on niin suuri, että se vie pohjaa koko kirjalta. 

Yuval Noah Hararin ajatus tekoälystä itsenäisiä päätöksiä tekevänä toimijana on toisaalta varsin hyvin linjassa sen kanssa, kuinka tekoälystä puhutaan ja kuinka siihen suhtaudutaan. Bestselleristin näkemykset ovat varsin yleisesti jaettuja. 

Ihmisen rakentamien tietojärjestelmien mahdollisuudella saavuttaa tietoisuus on spekuloitu jo vuosikymmeniä. ChatGPT-kielimallien julkaisu kiihdytti innokkaimpien ajatuksia siitä, että koneet voisivat todella olla tietoisia – ehkä piankin, tai ehkä jo nyt. 

Keskustelu on kiinnostavaa, sillä se paljastaa monenlaisia ajatusvinoumia. 

Yksi vinouma liittyy siihen, missä ja kenessä tunnistamme toimijuuden. Olen aiemminkin kirjoittanut siitä, kuinka toisten eläinlajien on ajateltu olevan vailla mieltä ja tietoisuutta, ja pitkälti näin ajatellaan yleisesti edelleen olevan. Yksittäinen ihminen pitää kyllä koiraansa tuntevana olentona, mutta yhteiskunnan tasolla eläimiä ei kohdella tietoisina ja tuntevina, ihmisenkaltaisina lajeina. Ihminen on pitänyt omaa ihmismieltään kaiken kruununa, järjen kirkkaimpana ilmentymänä. 

On selvää, että oppivissa algoritmeissa nähdään nyt mielellään kaikkea sitä, mitä muille eläimille ei ole voitu suoda, kuten älyä, mielellisyyttä, toimijuutta ja tietoisuutta. 

Tämä on yhtaikaa hullunkurista ja järkyttävää. On ilmeisesti pienemmän kynnyksen takana tunnistaa toiminnallinen mieli ihmisen itsensä tekemässä koodissa kuin vaikkapa naudassa tai kanassa. 

Tästä pääsen toiseen vinoumaan: resurssien suuntaamiseen. Tekoälyn kehittämiseen myös käytetään valtavan paljon enemmän resursseja kuin vaikkapa muunlajisten eläinten mielen tutkimiseen. 

Viime vuosina on kyllä saatu paljon uutta tietoa eläinten tunteista, tietoisuudesta, aistimaailmasta, empatiasta ja kommunikaatiosta. Kuluneena kesänä on uutisoitu vaikkapa siitä, että norsut antavat toisilleen nimiä ja simpanssit tunnistavat lääkekasveja. Mutta kuinka paljon enemmän ymmärtäisimmekään toisten eläinlajien ajattelusta, jos aihetta tutkittaisiin niillä resursseilla, joita nyt käytetään erilaisten tekoälysovellusten tekemiseen? Kuinka paljon enemmän ymmärtäisimme mielestä ja aivoista ylipäätään?

Toinen esimerkki resurssien suuntaamisesta ja siitä, mihin tekoälyä suunnitellaan käytettävän:  Pari viime vuotta ovat kuluneet siihen, että tekoälyn on peloteltu vievän työpaikkoja esimerkiksi tietotyöläisiltä. Kielimallit voivat kirjoittaa ja koodata, ja joitain tällaisia työtehtäviä niillä varsin kattavasti jo tehdäänkin. Kauhukuvana pidetään sitä, että kaikki luova työ valuu lopulta tekoälylle. Se voisi tehdä musiikin ja elokuvat, kirjoittaa kolumnit, kirjat ja opinnäytteet, ja sinä sivussa tekoäly tuuppaisi verkon täyteen niin uskottavan oloisia valeuutisia, että mihinkään ei enää voisi luottaa ja ihmiset olisivat toistensa kurkussa. Tämän takia tekoälyä pidetään uhkana demokratialle. 

Miksi sitten annamme tällaisia elämänalueita tekoälyn käsiin? Median perusteella vaikuttaa siltä, että tekoälyä tungetaan juuri niihin paikkoihin, joihin sitä ei oikeasti haluttaisi. 

Eikö maailmassa olisi paljon sellaista, johon oppivat algoritmit sopisivat lopulta ihmistä paremmin? Yhteen käyttötarkoitukseen viittasin jo aiemmin: tekoälyä voisi käyttää selvittämään muiden eläinten kommunikaatiota. Tätä tehdään tietenkin jo jonkin verran, mutta aina, kun tutkimuskohteena ovat toiset eläinlajit, resursseja ei löydy niin paljon kuin monille muille tutkimusaloille. 

Toinen lupaava käyttötarkoitus voisi liittyä johonkin tällaiseen: pari viikkoa sitten Science-lehti julkaisi tutkimusartikkelin siitä, kuinka kielimalli onnistui lievittämään ihmisten uskoa salaliittoteorioihin. Tulos oli tietenkin hyvin alustava eikä sen pysyvyydestä ole tietoa, mutta ehkäpä algoritmin kanssa keskustellessa ihminen pystyy olemaan avoimempi maailmankuvansa kyseenalaistamiselle kuin tilanteessa, jossa ”vastassa” on toinen ihminen. 

Kuopat ihmisten välisessä kommunikaatiossa aiheuttavat kaiken tasoisia konflikteja aina lyhyistä riidoista maailmansotiin. Ryhmäajattelu, voimistuva polarisaatio, kulttuuriset erot ja erikorkuiset kielimuurit estävät yhteisistä asioista sopimista. Tässä olisi tekoälylle oikea paikka. Kielimallit on nimenomaan rakennettu seulomaan ja analysoimaan sitä valtavaa kommunikaation massaa, mitä ihmiskunta on tuottanut. 

Olen viime aikoina miettinyt paljon neljä vuotta sitten edesmennyttä tekoälytutkija Timo Honkelaa. Hän ei ehtinyt nähdä ChatGPT:n aiheuttamaa kalabaliikkia, mikä on suuri harmi. Nyt nimittäin olisi täsmälleen oikea aika ottaa esiin Honkelan ajatus rauhankoneesta

Rauhankone olisi oppiviin algoritmeihin perustuva ohjelma, joka lisäisi ihmisten välistä ymmärrystä, vähentäisi vihanpitoa ja polarisaatiota sekä edistäisi tasa-arvoa. Honkelan ydinajatus oli tämä: ”Tekoäly ei ole tieteiselokuvien kaiken tuhoava äärimmäinen paha. Päinvastoin se tuo toivon paremmasta. Rauhankoneiden avulla ihminen voi nousta tietoisen ajattelun rajoitusten yläpuolelle. Lähestymässä on viisaiden koneiden aika.

Niinkin tämä voisi mennä. Enemmän siis Honkelaa kuin Hararia tekoälykeskusteluihin, kiitos!