Tekoäly kehittyy nopeasti ja siltä odotetaan paljon, kenties toisinaan hieman liikaakin. Sen toivotaan ratkaisevan suuren määrän erilaisia ongelmia – ja myös tehostavan ja nopeuttavan oikeudellista ja hallinnollista päätöksentekoa.
Petteri Orpon hallituksen hallitusohjelmaan on kirjattu tavoitteeksi, että hallitus mahdollistaa tekoälyn avulla tehtävät automaattiset viranomaispäätökset.
Åbo Akademin julkisoikeuden professori Markku Suksi muistuttaa, että hallintolaki kieltää tällä hetkellä tekoälyllä tehtävät automaattiset viranomaispäätökset. Hän mukaansa hallitusohjelman tavoite on varsin ongelmallinen.
– Linjaus on ristiriidassa lainalaisuus- ja oikeusvaltioperiaatteen kanssa, hän korostaa. Lainalaisuusperiaatteen mukaan julkisen vallankäytön tulee perustua lakiin, ei tilastolliseen päättelyyn.
Suksi on tutkinut tekoälyn ja juridiikan suhdetta vuodesta 2016, ja hän puhui aiheesta esimerkiksi lokakuussa Tuomaripäivillä. Hän on toimittanut myös teoksen The Rule of Law and Automated Decision-Making – Exploring Fundamentals of Algorithmic Governance (Springer 2023).
Tekoäly ei perustele päätöksiään
Suksi muistuttaa, että tekoälyllä tarkoitetaan useimmiten koneoppivaa järjestelmää, joka tekee tilastollisia ennusteita suuren tietomassan avulla.
– Mikäli tekoälyä käytetään automaattisissa viranomaispäätöksissä, se tekisi tällöinkin vain ennusteen suuresta joukosta aikaisempia päätöksiä. Päätös perustuisi siis tilastotieteeseen eikä lakiin tai harkintaan.
Tekoälyä voidaan mahdollisesti kehittää tulevaisuudessa sellaiseksi, että sen tekemien päätösten juridiset perusteet saataisiin näkyviin.
Ongelmana on myös, että päätöksenteon perusteista ei saada tietoa. Tällöin myös päätöksistä valittaminen muuttuu mahdottomaksi ja hallinnollinen päätöksenteko sulkeutuu.
Suksi ei pidä mahdottomana, etteikö tekoälyä voitaisi kehittää tulevaisuudessa sellaiseksi, että sen tekemien päätösten juridiset perusteet saataisiin näkyviin.
– Vielä tällä asteella ei kuitenkaan olla. Jos siitä tulee joskus totta, silloin asiaa pitää harkita uudelleen.
Avustaja vaatii valvomista
Tekoälyä on nykyäänkin mahdollista käyttää oikeudellisen ja hallinnollisen päätöksenteon apuna. Suksi arvioi, että tämä ei ole vielä kovin yleistä, mutta tulee yleistymään.
Rajavalvonnassa terrorismia pyritään nykyään ehkäisemään luomalla tekoälyn avulla riskiprofiili henkilöistä, jotka saapuvat kolmansista maista EU:hun. Tekoälyn hyödyntämiselle on kuitenkin luotu tarkka protokolla. Viisumipäätöksessä riskiprofiili on vain yksi eikä koskaan ainoa peruste.
– Minun mielestäni myös muulloin, silloin kun tekoälyä hyödynnetään päätöksentekoa avustavassa roolissa, tueksi tarvittaisiin pelisäännöt. Protokolla olisi selkeintä määritellä hallintolaissa.
Silloin kun tekoälyä hyödynnetään päätöksentekoa avustavassa roolissa, tueksi tarvittaisiin pelisäännöt.
Protokolla on tarpeen, jotta koneellinen avustaja ei pääse vahingossa liian suureen rooliin tai toimi lain vastaisesti. Tästä löytyy jo esimerkkejä.
Ruotsissa Göteborgin kouluviranomaiset joutuivat vaikeuksiin, kun he luottivat tekoälyohjelmansa näkemyksiin ensimmäisen luokan aloittavien koulujaosta. Tekoäly määritteli koulupiirejä ottamatta lainkaan huomioon vesistöjen asettamia luonnollisia liikkumisesteitä.
Suomesta on jo vuodelta 2006 KHO:n päätös, jonka mukaan käytetyn auton verotusarvoa ei voi määritellä pelkästään tilastollisilla menetelmillä, kuten tekoäly oli tehnyt, vaan siinä tarvitaan tapauskohtaista harkintaa.
Hollannissa eri aloilla toimivat viranomaiset joutuivat vastuuseen yksityisyyden suojan loukkaamisesta jo ennen tekemiään päätöksiä. He olivat yhdistäneet rekisteriensä tietoja ja etsineet tekoälyn avulla mahdollisia etuuksien väärinkäyttäjiä.
Alkeelliset algoritmit noudattavat sääntöjä
Varsinaisen koneoppivan tekoälyn rinnalla oma lukunsa ovat sääntöpohjaiset ei-koneoppivat algoritmit. Niitä voidaan jo käyttää tekemään viranomaispäätöksiä tapauksissa, joissa ei tarvita harkintaa. (Hallintolain 53 e §)
Tässä tapauksessa algoritmin päätöksenteko perustuu laissa määriteltyihin tarkkoihin kriteereihin. Esimerkiksi: jos A + B täyttyvät, siitä seuraa automaattisesti päätös C.
Algoritmeja voidaan käyttää tekemään vaikkapa eräitä Kelan tukipäätöksiä tai tiettyjä verotuspäätöksiä. Kriteerit ovat tyypillisesti numeerisia arvoja – vaikkapa tuloja, kustannuksia ja niille määriteltyjä raja-arvoja, ja päätöksenteko on yksinkertaista laskutoimintaa.
On hyvin vaikea kuvitella, että vaikkapa ympäristöluvat saatikka tuomioistuimen ratkaisutoiminta muuttuisi algoritmipohjaiseksi.
Algoritmisen päätöksenteon nykyisestä laajuudesta on vaikea saada kokonaiskuvaa, koska järjestelmiä kehitetään hajallaan siellä täällä.
– Alkeelliset algoritmit korvaavat päätöksentekoa yksinkertaisemmasta päästä. Mutta on hyvin vaikea kuvitella, että vaikkapa ympäristöluvat saatikka tuomioistuimen ratkaisutoiminta muuttuisi algoritmipohjaiseksi. Ehkäpä joidenkin sakkojen määrääminen voisi olla tulevaisuudessa sääntöpohjaisten algoritmien ulottuvissa.
Suksi korostaa, että ei vastusta algoritmista sääntöpohjaista päätöksentekoa.
– Mutta kun mukaan astuvat koneoppivat järjestelmät, sukelletaan syviin vesiin.
EU:n tekoälyasetus asettaa rajoja
Tekoälyn käyttöä säädellään EU:ssa maailman ensimmäisellä kattavalla tekoälyasetuksella. Sitä ei kuitenkaan sovelleta aloihin, jotka eivät kuulu unionin oikeuden soveltamisalaan. Jäsenvaltion hallinto- ja tuomioistuinjärjestelmä jää siten lähtökohtaisesti asetuksen soveltamisalan ulkopuolelle, mutta asetuksen tarkkaa vaikutusta on tässä vaiheessa vaikea arvioida.
Asetuksen syntyhetkellä ei ollut vielä pitkäkään aika siitä, kun maailman johtavat AI-gurut esittivät huolensa, että tekoälyä kehitetään liian nopeasti ja hallitsemattomasti. Totalitaristisista maista löytyy myös esimerkkejä, kuinka tekoälyä käytetään länsimaisen oikeus- ja demokratiakäsityksen vastaisesti vaikkapa kansalaisten biometriseen tunnistamiseen ja valvontaan sekä erilaisiin pisteytyksiin.
Asetuksen tavoitteena on ennen kaikkea yksilön perusoikeuksien suojelu.
Työ- ja elinkeinoministeriön johtava asiantuntija Maria Hauptmann on ollut mukana tekoälyasetuksen kansallisessa valmistelussa, ja hän osallistuu myös sen kansallisen täytäntöönpanon valmisteluun.
Hauptmann korostaa, että asetuksen tavoitteena on ennen kaikkea yksilön perusoikeuksien suojelu. Asetuksessa tekoälyjärjestelmiä luokitellaan esimerkiksi niiden sisältämien riskien perusteella.
Kokonaan kiellettyihin kuuluvat muun muassa järjestelmät, joilla ihmisiä voidaan luokitella ja joilla voidaan tehdä sosiaalisia pisteytyksiä.
Korkean riskin järjestelmiä koskevat tiukennetut vaatimukset. Niitä ovat esimerkiksi järjestelmät, joita voidaan käyttää oikeushallinnossa lain tulkinnan apuna sekä järjestelmät, joita viranomaiset voivat käyttää apuna etuuksista ja palveluista päättäessään.
Matalan riskin kategoriaan kuuluvat esimerkiksi deep fake -väärennöksiä tekevät järjestelmät ja minimaalisen riskin tai riskittömään kategoriaan muun muassa sähköpostisuodattimet.
Tekoälyä julkiselle sektorille
Korkean riskin tekoälyjärjestelmille asetetaan tiukennettuja vaatimuksia esimerkiksi käytettävän datan laadusta, kyberturvallisuudesta ja riskienhallintajärjestelmästä. Järjestelmien pitää olla myös läpinäkyviä ja ihmisen valvomia. Lisäksi vaatimuksia asetetaan tekoälyjärjestelmien tarjoajille, jakelijoille, maahantuojille, valtuutetuille edustajille ja käyttöönottajille.
– Hallinnollisissa tukitoimissa, kun tekoäly valjastetaan vaikkapa anonymisoimaan tuomioistuimien päätöksiä, tekoälyä ei kuitenkaan lasketa korkean riskin järjestelmäksi, Hauptmann mainitsee.
Palaute alan suomalaisilta yrityksiltä ei ole ollut täysin kielteistä. Asetuksen ei ole koettu rajoittavan liikaa tekoälyn kehittämistä ja hyödyntämistä vaan tarjoavan tarpeellisia pelisääntöjä.
Kun tekoäly valjastetaan vaikkapa anonymisoimaan tuomioistuimien päätöksiä, sitä ei lasketa korkean riskin järjestelmäksi.
Kansallisessa lainsäädännössä on tarkoitus säätää asetuksen noudattamista valvovista markkinaviranomaisista sekä sen rikkomisesta aiheutuvista seuraamuksista. Viranomaisille on tulossa mahdollisuus määrätä rikkomuksista jopa useiden kymmenien miljoonien eurojen suuruisia sakkoja.
Kansallisen lainsäädännön on tarkoitus tulla voimaan viimeistään 2. elokuuta 2025.
Jokin aikaa sitten päivänvalon näki myös Euroopan neuvoston tekoälyä koskeva puiteyleissopimus, jota voidaan käyttää lainsäädäntöinstrumenttina myös EU:n ulkopuolisissa maissa. Se on pitkälti linjassa tekoälyasetuksen kanssa, mutta keskittyy yleisiin demokratiaa ja ihmisoikeuksia koskeviin periaatteisiin.
Hauptmann pohtii, että esimerkiksi oikeuslaitoksissa käytettävät tekoälysovellukset eivät voi tulevaisuudessakaan korvata tuomareita.
– Tekoälysovellukset voivat kuitenkin toimia päätöksenteossa hyödyllisenä apuna ja tukena. Suomi on digitalisaation edelläkävijä. Varmasti tekoälyä tullaan käyttämään jatkossa myös julkisella sektorilla, hän muotoilee.
Harkitusti päätöksenteon apuna
- Hallintolaki kieltää tekoälyn käyttämisen automaattisissa viranomaispäätöksissä.
- Yksinkertaisia sääntöpohjaisia algoritmeja voi käyttää automaattisiin viranomaispäätöksiin eräissä tapauksissa, missä ei tarvita harkintaa. Algoritmien säännöt perustuvat tällöin suoraan lakiin.
- Tekoälyä on mahdollista käyttää oikeudellisen ja hallinnollisen päätöksenteon apuna. Tekoälyn käyttämiseen sisältyy kuitenkin riskejä, jotka on huomioitava ja joita on valvottava.
- EU:n uusi tekoälyasetus määrittelee tekoälyjärjestelmät, joita voidaan käyttää apuna hallinnollisessa tai oikeudellisessa päätöksenteossa, korkean riskin järjestelmiksi. Se määrää näille tiukennettuja vaatimuksia.