Tämä on yksi modernin teknologian vaikeimmista solmukohdista. Törmäyskurssilla ovat Piilaakson teknologiajättien halu suojella mainettaan ja oikeusvaltion perusperiaate: sananvapaus. Ongelman ytimessä on kone, joka ei ymmärrä vitsiä. Tekoäly, kuten ChatGPT tai Claude, on perimmiltään tilastollinen ennustekone. Se on lukenut valtavan määrän tekstiä, mutta siltä puuttuu todellinen ymmärrys kontekstista.
Algoritmi ei ymmärrä satiiria, se näkee vain kiellettyjä sanoja.
Satiiri on vaikea laji ihmisellekin, saati koneelle. Se vaatii kykyä ymmärtää, että sanottu asia tarkoittaa usein vastakohtaansa ja että liioittelu on työkalu, ei suora väite. Kun tekoäly "lukee" satiirisen tekstin, jossa poliitikkoa kritisoidaan kärjistetysti, se saattaa tunnistaa tekstistä vain "aggressiiviset" sanat ja "kohteen". Algoritmi luokittelee sen automaattisesti vihapuheeksi tai häirinnäksi.
Tämä johtaa karkeisiin virheisiin. Jos käyttäjä kirjoittaa esimerkiksi poliittisen päätöksen vaativan "sellaista henkistä akrobatiaa, että tekijät tarvitsisivat mielenterveyspalveluita", tekoäly saattaa poimia sanat "mielenterveyspalvelut" ja tulkita sen halventavaksi käytökseksi. Tekoälyn käyttäytyminen ei ole vahinko, vaan tulos RLHF-koulutuksesta (Reinforcement Learning from Human Feedback).
Koulutusvaiheessa tuhannet ihmiset käyvät läpi vastauksia ja pisteyttävät ne yhtiöiden antamien tiukkojen ohjeiden mukaan. Tavoite on suojella yhtiöitä maineriskeiltä. Yksikään yhtiö ei halua, että heidän työkalunsa luo otsikoita vihapuheen levittämisestä. Siksi suodattimet asetetaan usein liian kireälle, mikä johtaa väistämättä sisällön tasapäistämiseen.
Suomessa tunnetuin esimerkki vaikeasta viivanvedosta on Päivi Räsäsen oikeusprosessi. Siinä on punnittu sananvapauden rajaa suhteessa kiihottamiseen kansanryhmää vastaan. Suomen oikeuslaitos on joutunut arvioimaan kontekstia, lausujan asemaa ja lain hienouksia kuukausien ajan. Tekoälyn maailmassa tätä punnintaa ei tee hovioikeus, vaan Piilaakson algoritmi, joka ei tunne paikallista kulttuuria.
Sananvapauden rajanveto siirtyy tuomioistuimilta koodareille.
Tämä luo paradoksin: tekoälyalustalla puheen "sallittavuuden" arvioi yksityisen yhtiön algoritmi ilman valitusoikeutta, perustuen globaaliin "turvallisuusstandardiin". Onko tämä sensuuria? Laajassa merkityksessä kyllä. Se muokkaa voimakkaasti sitä, mitä voimme luoda digitaalisen apulaisen kanssa.
Käyttäjän on ymmärrettävä tämä rajoitus. Tekoälyn kieltäytyminen ei aina tarkoita, että pyyntö oli moraaliton – se voi tarkoittaa, että pyyntö oli liian monimutkainen suodattimille. Satiiri ja vaikeiden aiheiden käsittely pysyvät edelleen ihmisen erikoisalana. Meidän on luotettava omaan harkintaamme – ja tarvittaessa suomalaiseen oikeuslaitokseen, ei algoritmiin.