Käydäänkö Lähi-idässä ensimmäistä AI-sotaa?
Sosiaalisessa mediassa myös aitoa videota saatetaan epäillä tekoälytauhkaksi. Varsinkin, jos se ei satu istumaan omaan maailmankuvaan.
Yhdysvaltalaistoimittaja Sofia Rubinsonin työpöydälle oli päätynyt video Israelin pääministeri Benjamin Netanjahusta. Sosiaalisessa mediassa kiertäneessä videossa Netanjahu rupattelee kameralle kahvilassa ja kertoo, että somehuhuista huolimatta hän voi vallan mainiosti. Video oli vastaus esimerkiksi iranilaisissa kanavissa kiertäneisiin juoruihin, että hän olisi vakavasti loukkaantunut tai peräti kuollut.
”Monet sosiaalisen median käyttäjät ja esimerkiksi iranilaiset viestimet väittivät, että tämä video ei olisi aito”, Rubinson kertoi mediaa käsittelevän Question Everything -podcastin haastattelussa.
”Että se olisi tehty tekoälyllä, vaikka niin ei ollutkaan.”
Rubinson on erikoistunut tiedon verifiointiin ja faktantarkistukseen. Hän toimittaa Reality Check -nimistä uutiskirjettä, jota julkaisee NewsGuard.
Se on amerikkalainen yritys, jonka tietokoneohjelmistot auttavat arvioimaan verkkosivustojen ja -sisältöjen luotettavuutta.
Rubinson kertoo, kuinka ihmiset olivat näkevinään videossa merkkejä tekoälystä.
Kahvin pinta ei Netanjahun kupissa muka laskenut riittävästi, kun juomaa hörpättiin. Baristan tabletin ruudulla näkyi jonkun mielestä väärä vuosi – vaikka tuo väärä vuosi näkyi itse asiassa vain videosta tehdyssä ja jaetussa kuvamanipulaatiossa, ei alkuperäisessä videossa.
Kaiken kaikkiaan videossa oltiin näkevinään monia erilaisia ”glitchejä”, häiriöitä. Rubinson kuvailee, kuinka näistä ”häiriöistä” jaettiin dramaattisia ja esimerkiksi hidastettuja videoita sosiaalisessa mediassa erilaisten saatteiden kera.
”Katsokaapa tätä!” niissä saatettiin sanoa. Paljon keskustelua ja kommentteja, joissa vihjailtiin, että kaikki ei nyt olisi kohdillaan.
Mitään kovin kummallista videoissa ei näkynyt. Salaliittoja ruokkiva käsittelytapa tuntui silti herättävän monissa jonkinlaisen epävarmuuden. Ehkä tässä todella on jotain mätää!
Netanjahu-video on vain yksi esimerkki uudenlaisesta verkkoalustoilla valitsevasta poliittisesta mediatodellisuudesta.
Jatkuvasti kehittyneemmillä tekoälysovelluksilla voi tuottaa niin uskottavan tuntuista materiaalia, että myös aitoa videota saatetaan epäillä tekoälytauhkaksi.
Yksi syy tälle on epäilemättä se, että elämme niin kummallisia aikoja. The New York Timesin toimittaja Katie Rogers kertoi taannoin viestipalvelu X:ssä saaneensa sähköpostikyselyjä kuvasta, jossa ruokalähetti tuo presidentti Donald Trumpille McDonald’s-aterioita.
Trump on kova jakamaan sosiaalisessa mediassa tekoälyllä tehtyä materiaalia. Rogersilta kyseltiin, mahtoiko tämäkin kuva olla tekoälyllä tehty. (Ei ollut.)
Samalla erilaiset toimijat voivat yrittää kilpailla näistä tulkinnoista ja luoda aiheiden ympärille salaliittomaista puhetapaa tai epäilyksen varjoa kenties tarkoituksellisesti. Joku tosiaan jakoi Netanjahu-videostakin vääristeltyjä manipulaatioita, joita alkuperäisessä videossa ei lainkaan ollut.
Videon aitoutta koskevassa arvioinnissa on siis kyse myös kilpailusta siitä, julistaako sosiaalisen median suuri yleisö jonkin uskottavaksi vai epäuskottavaksi.
Kun materiaalia on runsaasti ja sen analysoiminen mahdotonta tai vähintäänkin aikaa vievää, tukea etsitään yleensä omasta intuitiosta ja luotetuista auktoriteeteista.
Viestipalvelu X:ssä käytyä keskustelua vilkaisemalla selviää, että Netanjahu-videota pitivät usein tekoälyn tuotoksena ne, jotka suhtautuivat muutenkin kielteisesti häneen tai Israelin hallintoon.
”Aivan selkeäksi tekoälyvideoksi” pätkää kutsui esimerkiksi myös yhdysvaltalaispodcastaaja Joe Rogan, jonka arvioita kuuntelee monta miljoonaa ihmistä ympäri maailman.
Tekoälyn tuotokseksi videon leimasi myös X-alustan oma tekoäly Grok. X ei markkinoi Grokia faktantarkistukseen, mutta silti jotkut suomalaispoliitikotkin viettävät paljon aikaa jutellen ominaisuuden kanssa ja käyttäen sitä juuri tähän tarkoitukseen.
Todennäköisesti Grok muiden kielimallien tavoin pikemminkin laskee todennäköisyyksiä ja etsii keskiarvoista vastausta: jos moni on väittänyt videota tekoälyksi erilaisin argumentein, se riittää.
Myöhemmin Grok vastasi, ettei video ollut tekoälyn tekemä. Tuolloin moni faktantarkistuspalvelu oli todentanut videon jo aidoksi. Vaan kuinkahan moni nämä jutut luki – somen ensiarvioiden tai huippusuositun Roganin sijaan?
Video on siitä kiinnostava esimerkki, että se liittyy elimellisesti nyt käynnissä olevaan sotaan Iranissa ja laajemmin koko Lähi-itää vavisuttavaan konfliktiin.
Persianlahdella käyty sota 1990-luvulla on toisinaan ristitty ensimmäiseksi ”live-sodaksi”. Sen seuraaminen oli mahdollista jatkuvasti pyörivien kaapelikanavien kautta. Erilaiset käänteet olivat nopeasti tiedossa kaikkialla maailmassa ja videokuvaa saatavilla melkeinpä vuorokauden ympäri.
Nyt samalla alueella saatetaan käydä ensimmäistä ”AI-sotaa”. Toimittajien pääsy maihin on vaikeaa ja monilta alueilta on lähes mahdotonta saada kuvamateriaalia. Samaan aikaan elämme visuaalisen sosiaalisen median aikakautta, jossa lyhytvideoiden katselu älypuhelimen ruudulta on merkittävä päivittäinen kokemus monelle ihmiselle ympäri maailmaa. Oikea materiaali onkin helppo korvata tekoälymateriaalialla esimerkiksi erilaisista iskuista. Sellaisia sodan osapuolet tuottavat, ja näillä videoilla ne käyvät myös kamppailua sodan narratiivista.
Videoiden tulkintaan vaikuttavat paitsi omat tiedot myös ennakkoluulot ja esimerkiksi vahvistusharha. Se ohjaa tulkitsemaan tietoa aiempia näkemyksiä tukevalla tavalla. Kun videoita on vaikea vahvistaa aidoksi tai luokitella tekoälyllä tehdyiksi, ei ihminen toimi niin, ettei hän usko mitään. Hän uskoo sen, minkä haluaa.
Jos sympatioita herättävän osapuolen videota ei ole nopeasti jaettu perinteiseen mediaan, lentävät syytökset pimityksestä. Jos antipatioita herättävän osapuolen videot jaetaan ja vahvistetaan, ne arvioidaan tästä huolimatta väärennetyiksi.
Aiemmat käsitykset kuvan ja videon pitävästä todistusvoimasta ovat näin joutaneet unholaan.