Millainen on hyödyllinen tekoäly?
Maailmaa mullistavat räätälöidyt tekoälyt, eivät yleiset kielimallit, professori sanoo.
Puhe tekoälystä keskittyy laajoihin kielimalleihin, sellaisiin kuten ChatGPT. Miten nämä kehittyvät lähivuosina, tietojenkäsittelytieteen professori Petri Myllymäki?
”Odotan, että laajojen kielimallin kehityksessä tulossa on suvantovaihe.
Peruslähtökohdaltaan ne ovat kuitenkin jo aika vanhoja arkkitehtuureja ja laskentamalleja. Voihan olla, että nykymeno jatkuu, mutta se edellyttää jatkuvasti lisää rahaa, energiaa ja dataa.
Internetissä dataa ei välttämättä enää ole. Energiakin alkaa jossain vaiheessa loppua ja monilta pelureilta alkavat loppua myös rahat.”
Kielimalleihin investoidaan kuitenkin yhä huimia summia.
”Käynnissä on pudotuspeli, jossa isot teknologiayhtiöt yrittävät saavuttaa monopoliaseman. Niiden etuna on viestiä, että kunhan vain investoidaan vielä lisää miljardeja, niin siitä seuraa jotain valtavan hienoa.
Tarinan pitää siis vastata jatkuvia suuria investointeja. Se ei voi olla, että ’hei me saatiin näillä miljardeilla ihan hyödyllisiä chatbotteja ja muita työkaluja toimistoihin.’
Siksi narratiivi on yhä, että kielimalleista kehittyy jotain aivan ylimaallista, yksi tekoäly, joka ratkaisee kaikki maailman ongelmat. Tähän tarinaan minä en usko.”
Mistä on kyse?
”Oikea kysymys on: miten saisimme aikaan parempia tuotteita ja palveluita, jotka perustuvat dataan ja tekoälyyn. Onko yksi amerikkalainen supertekoälypalvelu vastaus kaikkeen? Ei ole.
Tarvitsemme esimerkiksi parempia energia- ja liikenneverkkoja, parempaa koulutusta sekä terveydenhuoltoa. Siksi meidän pitää luoda räätälöityjä tekoälyratkaisuja tieteen, teollisuuden ja julkisen sektorin tarpeisiin.”
Onko tällaisia tekoälyjä jo?
”Niitä on jo paljon. Esimerkiksi Alphafold ratkaisee vaikean tieteellisen ongelman eli proteiinien laskostumisen. Sen avulla luodaan uusia rokotteita ja muuta hyödyllistä.
Yksi Alphafold on merkitykseltään paljon suurempi kuin tekoäly, joka pystyy generoimaan tekstiä tai kuvia.
Jos luomme Alphafoldia vastaavan ratkaisun jokaiselle tieteen sektorille, niin vaikutus on järisyttävä. Tämä on se oikea tekoälyvallankumous.”
Sanot, että internetistä alkaa loppua data. Mitä tarkoitat?
”Suuret kielimallit perustuvat internetistä imuroituun dataan. Yksi syy, miksi kielimallien kehitys ei enää kiihdy eksponentiaalisesti on, että internetin data on jo käytössä.
Kaikki data ei kuitenkaan ole internetissä. Meillä on paljon tieteellistä, teollista ja julkista dataa myös Suomessa. Niiden päälle voimme rakentaa omia tekoälyratkaisuja.
On älyttömän huono idea antaa meidän data amerikkalaisille ja sanoa, että me ostetaan mielellään tämä takaisin jalostettuna.”
Puhut suuresta harhasta.
”Kielimallin tehtävänä on generoida tekstiä, ei mitään muuta. Sitä se tekee yllättävän hyvin, mutta samalla se hämää meidät ajattelemaan, että se on jotenkin älykkäämpi kuin mitä se onkaan. Mutta ei kielimalli aja autoa. Se ei suunnittele autoa tai akkumateriaaleja siihen autoon. Tämän homman tekevät ihan eri tekoälyt.
Tämä on se suuri harha. Ei kielimalli kehity yhdeksi yleismaailmalliseksi tekoälyksi, joka ratkaisisi kaikki ongelmat, vaan jokaiseen ongelmaan pitää rakentaa erillinen tekoälyjärjestelmä.”
Tekoälyn pioneeri Yann LeCun puhuu ”maailman malleista” tekoälyn koulutuksessa. Mistä on kyse?
”Yann LeCun arvioi, että ei riitä, että kielimallit oppivat lukemaan ja rakentamaan tekstiä. Niiden pitäisi ymmärtää maailmaa, missä ne toimivat.”
Mistä on kyse?
”Ihmisinä ymmärrämme, että maailmassa on miljardeja samanlaisia otuksia kuin minä, mutta samalla kaikki ovat erilaisia. Ymmärrämme senkin, että toimimme fysikaalisessa maailmassa, jossa on painovoiman tapaisia asioita. Yann LeCunin viesti on, että tätä ei voi oppia vain internetiä lukemalla.
Tätä tekoälykehityksen aluetta olemme vasta raapaisseet. LeCunilla on näkemyksiä siitä, miten kehitys voisi tapahtua. Mutta tämä ei tule olemaan helppoa.”
IBM taas puhuu neurosymbolisesta tekoälystä.
”Nyt suositut kielimallit perustuvat neuroverkkoihin, jotka oppivat suuresta määrästä dataa. Suuren osan aikaa kielimallit kuitenkin höpöttävät omiaan.
Ennen nykyistä koneoppimisen kulta-aikaa tekoälyt perustuivat hyvin paljon logiikkaan. Silloin saatoimme luottaa niiden päätelmiin.
Nykyään käytämme symbolisia tekoälyjä esimerkiksi navigaattoreissa. Jos pyydämme lyhyintä reittiä Pasilaan, niin kyllä se antaa lyhyimmän reitin, minkä voi myös todistaa.”
Miksi malli ei ole kehittynyt?
”Malli ei skaalautunut kauhean hyvin, koska loogisten sääntöjen tuominen todelliseen maailmaan osoittautui hankalaksi.
Nyt suuri kysymys on, saadaanko datasta oppiva koneoppimisen malli ja tällainen logiikkaan perustuva malli toimimaan yhdessä.
Tämäkin on vähän hypetystä. Haluaisin uskoa, että monet järjestelmät ovat jo tällaisia.
Esimerkiksi autonomisessa ajossa neuroverkko tunnistaa liikennemerkkejä. Mutta jos neuroverkko sanoo, että nopeusrajoitus on 1 200 kilometriä tunnissa, niin toivon hartaasti, että taustalla on toinen, looginen järjestelmä, joka sanoo, että ’tarkoitat varmaan 120 kilometriä, koska lujempaa Suomessa ei saa ajaa.’”
Kuinka tärkeää näiden kahden mallin yhdistäminen olisi?
”Tämä on se tekoälyn Graalin malja. Loogiset järjestelmät ovat luotettavia ja verifioitavissa. Miten tällaisia ominaisuuksia saataisiin tilastollisiin malleihin, se on se suuri haaste.”
Juttu on ilmestynyt alun perin Tekniikan Maailmassa, joka kuuluu samaan Otavamedia-yhtiöön kuin Suomen Kuvalehti.