Tekoäly tuo uusia haavoittuvuuksia varautumiseen

Tekoäly voi muuttaa ihmisten toimintaa tavoilla, jotka yksittäistapauksessa vaikuttavat harmittomilta, mutta skaalau­tuessaan aiheuttavat ongelmia.

Profiilikuva
Puheenvuoro
Teksti
Janne Känkänen Petri Uusikylä
3 MIN

OpenAI on ilmoittanut perustavansa uuden tehtävän: Head of AI Preparedness. Se kertoo siitä, että tekoälyn kehitys on siirtymässä vaiheeseen, jossa kehityksen kärjessä olevat niin sanotut frontier-mallit eivät ole enää vain hyödyllisiä työkaluja, vaan potentiaalisesti myös uusia riskejä synnyttäviä järjestelmiä. Tämä herättää kysymyksiä siitä, miten mallien kyvykkyyksien kasvaessa niiden riskit tunnistetaan, miten turvallisuutta arvioidaan ja miten varautuminen skaalautuu kehityksen mukana.

Samalla on aiheellista kysyä, miten tekoälyyn liittyvä varautuminen suhteutuu yhteiskunnalliseen varautumiseen. Molemmat ovat haastavia kokonaisuuksia – mutta kumpi niistä on lopulta vaikeampi?

Tekoälyvarautumisella tarkoitetaan varautumista siihen, mitä yhä kehittyneemmät tekoälyjärjestelmät voivat mahdollistaa. Tarve liittyy sekä suoriin että välillisiin uhkaskenaarioihin.

Suorissa AI-uhkissa tekoäly mahdollistaa haitallisen koodauksen, hakkeroinnin ja kyberhyökkäysten automatisoinnin aiempaa tehokkaammin ja laajemmassa mittakaavassa. Kielimallien kehittyessä on tunnistettu riski siitä, että tekoäly voi tukea esimerkiksi vaarallisten biologisten aineiden tai aseiden kehittämistä.

Välillisissä AI-uhkissa on kyse siitä, miten tekoälyn tuottamat vastaukset, suositukset ja toimintamallit vaikuttavat ihmisten käyttäytymiseen ja sitä kautta kokonaisiin järjestelmiin. Tekoäly voi muuttaa toimintaa tavoilla, jotka yksittäistapauksessa vaikuttavat harmittomilta, mutta skaalau­tuessaan aiheuttavat ongelmia.

Hyvä esimerkki tästä on neuvonta. Yksittäiselle käyttäjälle järkevä neuvo voi johtaa vakaviin seurauksiin, jos suuri joukko ihmisiä alkaa noudattaa samaa ohjetta automaattisesti ja ilman harkintaa. Riski ei liity itse neuvoon, vaan sen kumulatiivisiin vaikutuksiin ja monitasoisiin systeemisiin seurauksiin. Tekoälyvarautumisessa onkin pitkälti kyse juuri tällaisten kerrannaisvaikutusten tunnistamisesta ja ennakoinnista.

Tekoälyvarautuminen muistuttaa yhteiskunnallista varautumista. Yhteiskunta koostuu keskenään riippuvaisista toiminnoista, ja häiriö osassa järjestelmää voi levitä pian muualle. Kyberhyökkäys maksujärjestelmiin ei ole vain rahoitussektorin ongelma vaan vaikuttaa toimitusketjuihin, yritysten toimintaan ja arjen sujuvuuteen.

Tekoälyvarautumisen ja yhteiskunnallisen varautumisen välillä on merkittäviä eroja. Yhteiskunnallisessa varautumisessa toimijoita on paljon: viranomaisia, yrityksiä, kansalaisia ja kansainvälisiä kumppaneita. Vastuut ovat hajautuneita, koordinaatio on usein vaikeaa ja käsitykset riskeistä vaihtelevat.

Tekoälyvarautuminen on suljetumpaa ja keskitetympää. Päätöksiä tehdään harvemmissa paikoissa, järjestelmien rajat ovat selkeämmät ja palautesilmukat nopeampia, mutta samalla algoritmit ja toimintalogiikat jäävät pitkälti mallien sisälle.

Myös perinteisessä varautumisessa kehityksen ja toimintaympäristön välinen kuilu on tullut näkyväksi. Toimialojen kyberkypsyysselvitys osoittaa, että kyberkypsyyden taso on kehittynyt vain maltillisesti, vaikka uhkaympäristö ja teknologinen murros ovat edenneet huomattavasti nopeammin.

Tekoälyyn liittyvä varautuminen ei siten ole erillinen teknologinen sivupolku vaan osa laajempaa yhteiskunnallista varautumista, joka todennäköisesti on kuitenkin edelleen vaikeampi tehtävä.

Juuri siksi tekoälyyn liittyvää varautumista ei tulisi nähdä vain teknologiayritysten tai asiantuntijoiden asiana, vaan osana laajempaa keskustelua yhteiskunnan kestävyydestä ja huoltovarmuudesta – ja niistä valinnoista, joita teemme ennen kuin riskit realisoituvat. 

Kirjoittajista Känkänen on Huoltovarmuuskeskuksen toimitusjohtaja ja Uusikylä Vaasan yliopiston tutkimusjohtaja.