Hallusinointi ja ajattelun puute

Kirjoittanut: Markus Sjöberg

Kuten aiemmin mainitsimme, kielimallien tuottama tieto voi joskus olla epätarkkaa tai jopa virheellistä. Tätä ilmiötä kutsutaan hallusinoinniksi. Vaikka esimerkiksi lääketieteessä hallusinoinnilla tarkoitetaan aistiharhoja, tekoälyn kontekstissa hallusinointi viittaa mallin taipumukseen tuottaa uskottavan kuuloista mutta virheellistä tietoa. Hallusinointi on seurausta siitä, että malli ei todellisuudessa tiedä asioita, vaan ennustaa todennäköisimmän jatkon annetulle tekstille. Jos malli on epävarma jostakin asiasta, se saattaa silti tuottaa vakuuttavan vastauksen, joka vaikuttaa oikealta mutta ei ole sitä.

Hallusinointi on erityisen ongelmallista, kun kielimallia käytetään faktapohjaisen tiedon hakemiseen tai tarkistamiseen. Luovassa työssä hallusinointi voi kuitenkin olla joskus jopa hyödyllistä – esimerkiksi kun etsitään uudenlaisia ideoita tai näkökulmia. Silti on tärkeää tiedostaa, milloin luotetaan mallin tuottamaan tietoon ja milloin sitä käytetään vain inspiraation lähteenä.

Kielimallien luotettavuutta voidaan parantaa monin tavoin, kuten kysymällä uudestaan ”oletko varma”. Tästä huolimatta faktat on syytä tarkastaa muista lähteistä. Nykyiset tekoälykeskustelusovellukset esimerkiksi osaavat etsiä tietoa internetistä, joten voit pyytää niiltä suoraan lähdeviitteet. On myös tärkeää muistaa, että vastuu generatiivisten tekoälytyökalujen tuottaman virheellisen sisällön levittämisestä on aina käyttäjällä. 

Ongelmanratkaisun ongelmat

Yksi suurista kielimallien eduista on niiden kyky toimia keskustelukumppanina ongelmatilanteissa. Tästä voi olla hyötyä esimerkiksi taiteellisen työn suunnittelussa, markkinointistrategian rakentamisessa tai arkipäiväisten haasteiden ratkaisemisessa. Joskus luovan työn esteenä voi olla jokin konkreettinen häiriö, kuten haiseva viemäri, joka vie ajatukset väärille urille. Tällaisessakin tilanteessa kielimalli voi auttaa selkiyttämään ajattelua, priorisoimaan vaihtoehoja tai jäsentämään ongelman uudelleen.

Toisinaan mallit kuitenkin epäonnistuvat yllättävän yksinkertaisissa tehtävissä. Monet käyttäjät ovat törmänneet tilanteisiin, joissa malli ehdottaa esimerkiksi nelikirjaimisia sanoja, kun pyydetään kolmikirjaimista, tai tekee muita arkijärjen vastaisia virheitä. Havainto heijastaa tutkimusnäkemystä: kielimallit eivät ole erityisen vahvoja loogista päättelyä vaativissa tehtävissä. Ne kykenevät toistamaan päättelylle tyypillisiä esitystapoja, mutta eivät tuota johdonmukaista päättelyä omalakisesti.

Esimerkiksi Applen tutkimukset (Mirzadeh ym. 2024Shojaee ym. 2025 osoittavat, että kielimallien suorituskyky heikkenee merkittävästi, kun loogisen päättelytehtävän pintatason yksityiskohtia muokataan – esimerkiksi henkilöiden nimiä tai sukulaisuussuhteita vaihdetaan. Mallit kykenevät usein ratkaisemaan tehtäviä, joita ne ovat käytännössä muistaneet harjoitusaineistosta, mutta epäonnistuvat, jos ongelma esitetään hieman eri sanoin. Tämä koskee myös OpenAI:n o1-mallia, jota markkinoitiin erityisesti päättelykykyisenä.

Silti monet mallit voivat näennäisesti tuottaa loogiselta vaikuttavia vastauksia. Tämä johtuu siitä, että ne on koulutettu tuottamaan todennäköisimpiä seuraavia sanoja annetuissa konteksteissa, eikä suorittamaan muodollista päättelyä. Kielellisesti uskottava vastaus ei aina tarkoita loogisesti pätevää vastausta.

Kielimallien kehittäjät ovat kuitenkin kehittäneet menetelmiä, joilla mallien päättelyä voidaan parantaa. Esimerkiksi ajatusketjuja hyödyntävässä (chain-of-thought, CoT) tekniikassa malli ohjataan esittämään ratkaisun vaiheet eksplisiittisesti: ensin se luonnostelee ongelman osia ja etenee sitten kohti lopputulosta. Tällaiset päättelyketjut esitetään usein myös käyttäjälle luottamuksen ja läpinäkyvyyden lisäämiseksi. On kuitenkin syytä huomata, että nämä ketjut voivat olla pelkkiä esityksiä. Anthropicin tutkijat (Chen ym. 2025) esittävät, että mallien lopullinen vastaus ei aina perustu esitettyyn ketjuun, vaan voivat esitetystä päättelyketjusta huolimatta pohjautua sisäiseen, käyttäjälle näkymättömään päättelyyn.

Agentit apuna

Ajattelun lisäksi yhä useammin puhutaan myös tekoälyagenteista. Silloin kielimalli ei toimikaan enää vain itsenäisesti, vaan osana monivaiheista järjestelmää. Agenttiarkkitehtuurissa tehtävä jaetaan osavaiheisiin, ja malli toimii eri rooleissa: se voi esimerkiksi suunnitella toimintastrategian, hakea tietoa verkkohauilla, suorittaa laskentaa ohjelmoimalla, tai tuottaa lopullisen vastauksen käyttämällä luovaan kirjoittamiseen ohjeistettua mallia. Myös monet tekoälychatit, kuten OpenAI:n ChatGPT käyttävät agenttimaisia toimintamalleja. Vaikka kielimalli itsessään ei ole agentti, sen toiminta muuttuu agenttimaiseksi, kun se yhdistetään ulkoisiin työkalu- ja päätöksentekomoduuleihin.

Esimerkiksi matemaattisia kysymyksiä ratkaistaessa kielimalli voi kirjoittaa Python-koodin, joka suorittaa laskutoimituksen. Mallin ei siis tarvitse tietää vastausta, vaan se delegoi tehtävän koodin suoritukselle. Vastaavasti mallia voidaan ohjeistaa tarkistamaan tietoja hakukoneen avulla sen sijaan, että se nojaisi omaan muistiinsa. Näin mallien käyttö lähenee systeemistä ongelmanratkaisua, jossa yksittäinen kielimalli toimii osana laajempaa, agenttipohjaista kokonaisuutta.