Päätöksenteko
Kirjoittanut: Markus Sjöberg
Yksi keskeisistä ulottuvuuksista, jossa tekoälyn vaikutuksiin on syytä suhtautua kriittisesti, on päätöksenteko. EU:n tekoälyasetus säätelee tekoälyn käyttöä kriittisillä sektoreilla, kuten terveydenhuollossa, infrastruktuurissa, oikeusjärjestelmässä ja julkisessa hallinnossa. Näillä alueilla tekoälyjärjestelmiä pidetään korkean riskin sovelluksina, ja niihin sovelletaan tiukkoja vaatimuksia, koska päätöksenteon virheillä voi olla vakavia seurauksia yksilöille ja yhteiskunnalle.
Asetuksessa määritellään korkeariskisiksi esimerkiksi lääketieteelliset diagnoosijärjestelmät, autonomiset ajoneuvot ja järjestelmät, joilla on vaikutusta kansalaisten oikeuksiin ja turvallisuuteen. Niiltä edellytetään mm. riskienhallintajärjestelmää, koulutusdatan laadun varmistamista, päätösten selitettävyyttä sekä jatkuvaa ihmisen valvontaa. Lisäksi generatiivisiin tekoälymalleihin kohdistuu erityisiä läpinäkyvyysvelvoitteita, kuten vaatimus merkitä synteettinen sisältö silloin, kun yleisö voisi muuten erehtyä pitämään sitä ihmisen tuottamana.
Luovan alan päätöksenteko jää kuitenkin sääntelyn ulkopuolelle. Taiteen, kirjallisuuden tai kulttuurituotannon tekoälyavusteisia valintoja ei asetuksessa luokitella yhteiskunnan kriittiseksi toiminnaksi. Tästä seuraa, että niihin ei kohdistu samantasoisia vaatimuksia turvallisuudesta, riskienhallinnasta tai läpinäkyvyydestä kuin kriittisiin sektoreihin. Silti luovan alan valinnoilla voi olla kauaskantoisia kulttuurisia ja arvopohjaisia vaikutuksia, joita sääntely ei kata.
Päätöksentekoa tapahtuu kaikessa inhimillisessä toiminnassa. Kun tehdään suunnitelmia tai luodaan sisältöjä, tehdään päätöksiä. On tärkeää huomata, että päätöksentekoa tapahtuu luovan sisällön ideointivaiheessa, taideteoksen apurahahakemuksen kirjoittamisessa, liiketoimintasuunnitelmaa tehdessä ja kaikissa muissa vaiheissa. Voi olla haastavaa huomata kaikkia päätöksenteon hetkiä, sillä ne ovat osin tiedostamattomia.
Esimerkiksi tätä verkkokurssia luotaessa on hyödynnetty muun muassa OpenAI:n ChatGPT:tä ja Anthropicin Claudea parantamaan tekstin sujuvuutta ja tuomaan mukaan näkökulmia kokonaisuuteen liittyen. Niille on tyypillistä, että ne ottavat tietynlaisen äänensävyn ja tavan rakentaa sisältöä. Esimerkiksi ChatGPT pyrkii tuottamassaan tekstissä löytämään aiheista mahdollisuuden ihmisen ja tekoälyn yhteiselolle. Se korostaa näkökulmia, joissa tekoäly ei korvaa ihmistä, mutta auttaa saavuttamaan erilaisia tavoitteita. Näkökulma ei ole sinällään väärä tai tämän kurssin perusajatuksen vastainen, mutta se ei ole paikallaan silloin, kun tulisi käsitellä kriittisesti tekoälyn vaikutuksia. Tekoälystä on paljon hyötyä, mutta siinä on myös selviä riskejä ja haittapuolia, joita ei tulisi silotella piiloon hyvien puolien takia. Nyrkkisääntönä voi pitää sellaista lähestymistapaa, että mitä enemmän hyödyntää tekoälyn generoimaa sisältöä, sitä kriittisemmin pitää kyetä suhtautumaan siihen.
Tekoälyratkaisut heijastavat paitsi koulutusdatansa, myös tekijöidensä arvoja. Suurin osa tekoälyratkaisuista on kehitetty Yhdysvalloissa. Yhdysvaltalaisille tekoälyratkaisuille on tyypillistä esimerkiksi äärimmäisen tarkka suhtautuminen alastomuuteen. Eurooppalaisessa kulttuurissa ja taidehistoriassa alastomuudella on ollut tärkeä ilmaisullinen roolinsa. Kun hyväksymme yhdysvaltalaiset tekoälytyökalut arvopohjineen osaksi luovan alan työkalupalettia, saatamme samalla menettää mahdollisuuden ylläpitää euroooppalaiselle taiteelle tyypillisiä ilmaisutapoja.
Osa päätöksentekotilanteista ei ole kriittisiä arvojen kannalta, mutta niitä on hyvä pohtia ilmaisun näkökulmasta. Kun ohjaamme kuvageneraattoria luomaan kuvia vaikkapa kirjan kuvitusta varten, saattaa malli tuottaa jotain sellaista, mitä emme olleet ajatelleet. Toisinaan se on hyvä asia, sillä luovuus saattaa kehittyä ideoita pallotellessa ja jopa vahingossa syntyneiden tuotosten kanssa pallottelusta. Toisinaan se voi kuitenkin johtaa helppoihin ja mielikuvituksettoman geneerisiin ratkaisuihin. On siis hyvä muistaa aina kyseenalaistaa ja olla kriittinen.