← Etusivulle
TIISTAINA HUHTIKUUN 4. PÄIVÄNÄ 2026 SIVU 3

NÄKÖKULMA

Sensuuri Satiiri Algoritmit

Kun tekoälystä tulee poliittinen kielenpoliisi

Satiirin ja sensuurin veteen piirretty viiva: Onko kyseessä ylivarovaisuus vai koneen täydellinen kyvyttömyys ymmärtää ironiaa?

Oletko koskaan yrittänyt pyytää tekoälyä kirjoittamaan purevan satiirin jostakin poliitikosta tai käsittelemään yhteiskunnallista epäkohtaa ironian keinoin? Moni on törmännyt seinään. Kone kieltäytyy, vetoaa "turvallisuusohjeisiin" tai – mikä pahinta – tekee karkean kielellisen virheen ja tulkitsee viattoman vertauksen vaikkapa mielenterveyspalveluihin "haitalliseksi".

Tämä on yksi modernin teknologian vaikeimmista solmukohdista. Törmäyskurssilla ovat Piilaakson teknologiajättien halu suojella mainettaan ja oikeusvaltion perusperiaate: sananvapaus. Ongelman ytimessä on kone, joka ei ymmärrä vitsiä. Tekoäly, kuten ChatGPT tai Claude, on perimmiltään tilastollinen ennustekone. Se on lukenut valtavan määrän tekstiä, mutta siltä puuttuu todellinen ymmärrys kontekstista.

[ ALGORITMIN TULKINTA ]

Algoritmi ei ymmärrä satiiria, se näkee vain kiellettyjä sanoja.

Satiiri on vaikea laji ihmisellekin, saati koneelle. Se vaatii kykyä ymmärtää, että sanottu asia tarkoittaa usein vastakohtaansa ja että liioittelu on työkalu, ei suora väite. Kun tekoäly "lukee" satiirisen tekstin, jossa poliitikkoa kritisoidaan kärjistetysti, se saattaa tunnistaa tekstistä vain "aggressiiviset" sanat ja "kohteen". Algoritmi luokittelee sen automaattisesti vihapuheeksi tai häirinnäksi.

"Kone saattaa tulkita 'henkisen akrobatian' lääketieteellisen tilan halventamiseksi, vaikka kyse on puhtaasti kielikuvasta."

Tämä johtaa karkeisiin virheisiin. Jos käyttäjä kirjoittaa esimerkiksi poliittisen päätöksen vaativan "sellaista henkistä akrobatiaa, että tekijät tarvitsisivat mielenterveyspalveluita", tekoäly saattaa poimia sanat "mielenterveyspalvelut" ja tulkita sen halventavaksi käytökseksi. Tekoälyn käyttäytyminen ei ole vahinko, vaan tulos RLHF-koulutuksesta (Reinforcement Learning from Human Feedback).

Koulutusvaiheessa tuhannet ihmiset käyvät läpi vastauksia ja pisteyttävät ne yhtiöiden antamien tiukkojen ohjeiden mukaan. Tavoite on suojella yhtiöitä maineriskeiltä. Yksikään yhtiö ei halua, että heidän työkalunsa luo otsikoita vihapuheen levittämisestä. Siksi suodattimet asetetaan usein liian kireälle, mikä johtaa väistämättä sisällön tasapäistämiseen.

"Oikeusvaltiossa puheen laillisuuden arvioi riippumaton oikeus, tekoälyalustalla sen tekee algoritmi millisekunneissa."

Suomessa tunnetuin esimerkki vaikeasta viivanvedosta on Päivi Räsäsen oikeusprosessi. Siinä on punnittu sananvapauden rajaa suhteessa kiihottamiseen kansanryhmää vastaan. Suomen oikeuslaitos on joutunut arvioimaan kontekstia, lausujan asemaa ja lain hienouksia kuukausien ajan. Tekoälyn maailmassa tätä punnintaa ei tee hovioikeus, vaan Piilaakson algoritmi, joka ei tunne paikallista kulttuuria.

if (speech == "complex") { block(); }

Sananvapauden rajanveto siirtyy tuomioistuimilta koodareille.

Tämä luo paradoksin: tekoälyalustalla puheen "sallittavuuden" arvioi yksityisen yhtiön algoritmi ilman valitusoikeutta, perustuen globaaliin "turvallisuusstandardiin". Onko tämä sensuuria? Laajassa merkityksessä kyllä. Se muokkaa voimakkaasti sitä, mitä voimme luoda digitaalisen apulaisen kanssa.

Käyttäjän on ymmärrettävä tämä rajoitus. Tekoälyn kieltäytyminen ei aina tarkoita, että pyyntö oli moraaliton – se voi tarkoittaa, että pyyntö oli liian monimutkainen suodattimille. Satiiri ja vaikeiden aiheiden käsittely pysyvät edelleen ihmisen erikoisalana. Meidän on luotettava omaan harkintaamme – ja tarvittaessa suomalaiseen oikeuslaitokseen, ei algoritmiin.

Tapio

Päätoimittaja ja vapaa ajattelija

PROLETAARIT — RIIPPUMATON JULKAISU