Tekoäly tehostaa vihapuheen moderointia, mutta sääntely on jäänyt katveeseen

Tekoäly ei pysty tunnistamaan esimerkiksi ironiaa, ellei opetusaineistona käytettyjen viestien kontekstia ole käyty huolella läpi.

4 MIN

Tekoälyä käytetään vihapuheen moderoinnissa jo laajasti erilaisilla verkkoalustoilla, kuten sosiaalisessa mediassa. Tekoälymoderointia käyttävät esimerkiksi suuret teknologiayritykset kuten Meta, jonka alustoilla vihapuhe voi ilmetä esimerkiksi meemien muodossa.

EU:n tietosuojalaki velvoittaa yritykset kertomaan käyttäjille tekoälyavusteisesta moderoinnistaan, jos henkilötietoja on käytetty tekoälymallin kehittämisessä tai tuotannossa, sanoo tekoäly- ja strategiakonsultti Mari-Sanna Paukkeri.

Moderoitavat kommentit tulkitaan tietosuojalain mukaan henkilötiedoiksi, jos ne ovat vähänkään pidempiä ilmaisuja kuin esimerkiksi ”ok”. EU:n digipalveluasetus velvoittaa internetin välityspalveluiden tarjoajien, pois lukien mikro- ja pienyritysten, raportoimaan moderoinnista.

Vihapuhetta voidaan valvoa monenlaisten keinojen, kuten koneoppimisen avulla. Koneoppimista käyttävä järjestelmä oppii Paukkerin mukaan tunnistamaan vihapuheen opetusaineiston perusteella.

Hyvälaatuinen tekoälymalli on ihmistä ehdottomasti tehokkaampi moderoija, Paukkeri sanoo. Suomen kielen tunnistaminen on hänen mukaansa kuitenkin tekoälylle haastavaa opetusmateriaalin niukkuuden sekä runsaiden yhdyssanojen ja taivutusmuotojen vuoksi.

Tekoälyn moderointipäätökset ovat Paukkerin mukaan myös ihmismoderoijia demokraattisempia, koska tekoälyn työntekoon eivät vaikuta esimerkiksi tunteet, asenteet ja arvot.  

Tekoälymallista tulee tarkempi, jos yksi ihminen on määritellyt, mikä opetusaineiston viesteistä on vihapuhetta ja mikä ei. Tarkkuutta parantaa myös se, jos opetusaineistona käytetään tekoälymallia käyttävällä sivustolla olevia kommentteja. Tällöin tekoälyn opetus on johdonmukaisempaa. Mahdollisimman laaja opetusaineisto parantaa tekoälyn toimivuutta.

Yrityksen työntekijät tai alihankkijat vahtivat Paukkerin mukaan tekoälyä vihapuheen valvonnassa. Paukkeri korostaa, että moderoijilta vaaditaan tarkkuutta ja ymmärrystä yhteiskunnasta sekä käyttäytymissäännöistä. Moderoijien täytyy esimerkiksi nähdä sanojen tai nyanssien tarkkuudella, milloin joku sisältö on epäasiallista.

Yksittäisten sanojen lisäksi viesti tulee huomioida kokonaisuudessaan kontekstin hahmottamiseksi, Paukkeri lisää. Riskinä on, että ihmismoderoijat eivät perehdy opetusaineistona käytettyjen viestien kontekstiin tarpeeksi, jolloin opetusaineistosta tulee heikkolaatuista. Silloin tekoäly ei pysty ymmärtämään kontekstia esimerkiksi ironian kohdalla.

”Jos puolet ihmisistä tunnistaa ironisen jutun niin ei sitä konetta saada yhtään sen paremmin tunnistamaan sitä.”

Paukkeri pitää tärkeänä, että tekoäly pystyy suodattamaan automaattisesti vaarallisimmat ja negatiivisimmat sisällöt, kuten laittomat kuvat. Näin ihmismoderoijat välttyvät niiltä.

Oulun yliopiston tutkijatohtorin Lauri Tuovisen mukaan yksi eettinen kysymys onkin se, miten paljon moderoijia altistetaan häiritsevälle sisällölle ja miten heidän henkistä hyvinvointiaan tuetaan työssä.

Vihapuheen moderointi kytkeytyy Tuovisen mukaan laajempaan yhteiskunnalliseen väittelyyn siitä, kuinka paljon ihmisten käyttäytymistä ja viestintää täytyy kontrolloida. Ja mikä on sosiaalisen median alustan vastuu asiassa? Painotuserot Euroopan ja Yhdysvaltojen välillä ovat Tuovisen mukaan suuret, mihin vaikuttaa esimerkiksi erilainen kulttuuri- ja lainsäädännöllinen perusta.

Tuovinen pitää sosiaalisen median alustojen moderointia kuitenkin ”periaatteessa läpinäkyvänä”, koska moderointipäätöksestä voi tarvittaessa valittaa ja sen arvioi viime kädessä ihminen.

Tekoälymoderoinnin tarkkuus riippuu Tuovisen mukaan painotuksesta. Jos tavoitteena on, että kaikki vihapuheeksi tulkittavissa oleva jää haaviin, sinne tarttuu paljon sellaista, jota ei olisi pitänyt moderoida. Toisaalta jos painotetaan sananvapautta, järjestelmä päästää ”lähes poikkeuksetta” läpi sisältöä, jota olisi pitänyt moderoida.

Euroopan unioni pyrkii sääntelemään tekoälyä asetuksella, joka otetaan asteittain käyttöön tämän ja ensi vuoden aikana. Kyseessä on maailman ensimmäinen tekoälyä säätelevä laki. Säädös ei kuitenkaan sisällä velvoitteita tekoälyavusteisesta vihapuhemoderoinnista, Tuovinen sanoo.

”Tekoälyn vihapuhemoderointi jää siinä mielessä sääntelykatveeseen, koska tekoälyasetus ei huomioi tätä käyttötapausta ja toisaalta digipalveluasetus ei ota kantaa teknologiaan”, Tuovinen sanoo.

Viime vuonna voimaan astuneella EU:n digipalveluasetuksella (DSA) pyritään Tuovisen mukaan selkeyttämään alustojen tarjoajien vastuuta vihapuheen ja muun vahingolliseksi katsotun sisällön levittämisen estämisessä. Asetus velvoittaa yrityksen kertomaan moderointipäätöksen syyt ja rekisteröimään ne EU:n avoimeen tietokantaan.

Digipalveluasetus on Tuovisen mukaan lisännyt valvonnan läpinäkyvyyttä, koska se velvoittaa yritykset lisäämään moderointipäätökset avoimeen, EU:n laajuiseen tietokantaan. Tällöin moderointi ei jää vain yrityksen oman aktiivisuuden varaan, kun kaikilla on pääsy kyseiseen aineistoon.

Tietty riski ja eturistiriita on kuitenkin olemassa, kun yritys moderoi omaa alustaansa. Tuovisen mukaan on syytä kysyä, miten huolella valvontaa tehdään, kuinka paljon ulkopuolinen taho pystyy valvontaa tekemään ja kuinka paljon yksityisiä yrityksiä voidaan vastuuttaa moderoinnista. Lisäksi riskinä on, että yritysten arviointi venähtää ja moderointipäätökset voivat olla ”mielivaltaisia” moderoinnin kohteeksi joutuneita käyttäjiä kohtaan.

Tuovinen korostaa, että EU:n tekoälyä koskevat työkalut ovat verrattain uusia, jolloin niiden soveltaminen tekoälymoderointiin hakee vielä paikkaansa.