suomi.fi
Siirry suoraan sisältöön.
Hyvät käytännöt kehittäjille

Tekoälyn vastuullinen hyödyntäminen

Huomioi lait ja suositukset

Julkishallinnon järjestelmän on oltava säännelty

Julkisen hallinnon tietojärjestelmät ja digitaaliset palvelut on toteutettava kuten kaikki viranomaistoiminta: lakeja ja asetuksia noudattaen sekä kansallisella että EU:n tasolla.

Julkisen sektorin pääasiallinen tehtävä teknologisen murroksen näkökulmasta on luoda edellytyksiä teknologioiden hyö­dyntämiseen koko yhteiskunnassa eettisesti kestävästi ja turvallisesti. 

– Ministeriöiden tulevaisuuskatsaus, 2022
Päivitetty: 23.2.2024

Tekoälyn lainsäädäntö nyt ja tulevaisuudessa

Suomen ja EU:n laeissa on jo säädetty muun muassa

  • hyväksyttävästä tekoälyn käytöstä
  • digipalveluista
  • yhdenvertaisuudesta ja tasa-arvosta
  • yksityisyydestä ja tietosuojasta (GDPR)
  • datan käytöstä.

Suomessa laki automaattisesta päätöksenteosta julkisessa hallinnossa tuli voimaan toukokuussa 2023, mutta se ei koske oppivia järjestelmiä, kuten tekoälyä.

Euroopan parlamentti hyväksyi Euroopan Unionin tekoälyasetuksen (AI Act) joulukuussa 2023, ja se tulee voimaan todennäköisesti vuoden 2024 aikana. Asetuksen tultua voimaan siitä tulee keskeisin tekoälyjärjestelmille asetettavia vaatimuksia ja käyttöä koskeva sääntely EU:n jäsenvaltioissa.

Päivitetty: 27.2.2024

Suomen nykyinen lainsäädäntö ei mahdollista päätöksentekoa koneoppivilla järjestelmillä

Millä perusteella kone tekee päätöksiä?

Automaattisen verotuksen kaltaisessa tapauksessa syy-seuraussuhde on osoitettavissa. Henkilö on ansainnut tietyn euromäärän tietyistä kohteista tiettynä aikana, ja veropäätös lasketaan suoraan Verohallinnon sääntöjen perusteella.

Tekoälyn logiikka taas perustuu mutkikkaisiin tilastollisiin todennäköisyyksiin, mikä tekee selkeän syy-seuraussuhteen toteamisen vaikeaksi. Jos kyseessä on vielä oppiva algoritminen järjestelmä, joka voi mukauttaa toimintaansa syötteiden mukaan, haaste on melko mahdoton.

Siksi Suomen voimassa oleva lainsäädäntö automaattisesta päätöksenteosta ei koske oppivia järjestelmiä – eli käytännössä tekoälyä – lainkaan. Koneoppivia järjestelmiä voidaan käyttää työn tukena, myös hallinnossa, mutta ei päätöksenteossa ainakaan toistaiseksi.

Päivitetty: 27.2.2024

Tekoälyasetus asettaa vaatimuksia korkean riskin järjestelmille

Euroopan parlamentin hyväksymä asetuksen luonnos, joka ei ole vielä voimassa, ei kokonaan kiellä, mutta jarruttaa koneoppimisjärjestelmiä tekemästä päätöksiä EU-maiden hallinnoissa. Korkean riskin tekoälyjärjestelmiin luokitellaan esimerkiksi koulutukseen, terveyteen ja hyvinvointiin, työelämään, etuuksiin ja liikenteeseen liittyvät sovellukset – eli käytännössä lähes koko julkisten palvelujen kenttä.

Korkean riskin järjestelmissä tulee olla:

  • riittävät riskinarviointi- ja riskienvähentämisjärjestelmät
  • järjestelmää tukevien tietoaineistojen korkea laatu
  • toiminnan kirjaaminen tulosten jäljitettävyyden varmistamiseksi
  • selkeät ja riittävät tiedot käyttäjälle
  • asianmukaiset ihmisen valvontatoimenpiteet
  • korkea kestävyys, turvallisuus ja tarkkuus
  • yksityiskohtainen dokumentaatio, joka sisältää kaikki tiedot järjestelmästä, jotta viranomaiset voivat arvioida asetuksen noudattamista.
Päivitetty: 11.3.2024

Tekoälyasetus rajoittaa EU-kansalaisten pisteyttämistä ja profilointia

EU:n tekoälyasetuksen riskiluokituksen ylin riskiluokka (unacceptable risk) kieltää tekoälyn avulla tehtävät pisteytykset ja profiloinnit, jotka perustuvat tietoihin yksilön sosiaalisesta käyttäytymisestä, hänen sosioekonomisesta tilastaan tai hänen ominaisuuksistaan henkilönä.

Asetus ei kiellä dataan perustuvaa profilointia täysin. Profilointi on sallittua, jos se on välttämätöntä tietyn lainmukaisen prosessin suorittamiseksi, tai jos henkilö on antanut siihen suostumuksen. Sallittua voi olla esimerkiksi henkilön terveysdataan perustuva potilasprofilointi tai pankin lainapäätöstä edeltävä maksukyvyn arviointi. Tällaisiin tapauksiin tarvitaan kuitenkin henkilön suostumus.

Jää tulkinnanvaraiseksi, missä määrin riskiluokitusmalli yhdessä pisteytys- ja profilointirajoitteiden kanssa estää koneoppimiseen perustuvan automaattisen päätöksenteon kansalaisen harkinnanvaraisessa asiassa. Ehkä tämä voikin toteutua vasta pitemmän ajan ja teknologian kypsymisen jälkeen.

Päivitetty: 11.3.2024

Virkavastuu muuttuu mutkikkaaksi monen toimijan järjestelmässä

Julkisen hallinnon tekoälyjärjestelmiä haastaa myös laissa säädetty virkavastuu. Ongelmien ilmaantuessa kysymys perimmäisestä vastuusta on usein vaikea, sillä järjestelmään liittyy monia toimijoita ja ulottuvuuksia, kuten

  • data-aineistoja, joista osa tai kaikki saattaa olla toisten osapuolten tuottamia
  • teknisiä toimittajia
  • ohjelmoijia
  • algoritmista vastaavia.
Vastuun syntyminen algoritmisen päätöksenteon kohdalla edellyttää yhteyttä virkamiehen ja päätöksentekoprosessin välillä. Sääntöpohjaisessa automaatiossa virkamiehen on mahdollista tarvittaessa tutustua järjestelmän toiminnan ja siten myös tehtyjen päätösten perusteisiin. 

Sen sijaan tekoälypohjaisissa järjestelmissä edes järjestelmän kehittäjä ei välttämättä aina pysty selvittämään, mihin seikkoihin järjestelmän tuottama lopputulos perustuu.

Valtioneuvoston selvitys- ja tutkimustoiminta: Algoritmi päätöksentekijänä?Avautuu uuteen ikkunaan.
Päivitetty: 3.10.2023

Harkinnanvaraisissa päätöksissä tekoäly voi olla apuri

Koska laki ei koske oppivia järjestelmiä, rajoittaa se käytännössä harkinnanvaraisten asioiden tekoälypäättämisen lähes kokonaan viranomaistoiminnan ulkopuolelle. Jos päätöstä ei kyetä perustelemaan oikeusturvan edellyttämällä tasolla, sitä ei tule tehdä lainkaan.

Tekoälyn käyttäminen harkinnanvaraisen asian käsittelyn apuna voi silti olla mahdollista, kun lopullinen päätösvalta säilyy ihmisellä. Silloinkin on oltava läpinäkyvää ja selvää, mitä ja miten tekoäly on asiassa käsitellyt ja miten sen tuotokset on päätöstä tehdessä huomioitu.

Tekoälyä voi päätöksenteon ulkopuolella käyttää tietyissä tapauksissa tukityökaluna, jos organisaation linjaukset ja ohjeet sen sallivat.

Päivitetty: 13.11.2023

Säädöksistä voi poiketa vain simulaatioissa

Suomen julkisen sektorin innovatiivisissa, tekoälyyn perustuvissa palveluissa, on otettava huomioon eettiset näkökohdat, jotta voidaan varmistaa, että ne ovat oikeudenmukaisia, puolueettomia, luotettavia ja vastuullisia, ja ne on myös suunniteltava asiaankuuluvien kunnallisten, kansallisten ja EU-pohjaisten sääntelypuitteiden mukaisesti.

Tekoälytutkijat Nitin Sawhney ja Ana Paula Gonzales Torres Aalto-yliopiston julkaisussa (englanniksi)Avautuu uuteen ikkunaan.

Voimassa oleva lainsäädäntö voi joskus jarruttaa tai kokonaan estää hyödyllistenkin järjestelmien ja palvelujen kehittämisen.

Muuta liikkumavaraa sääntelystä ei ole kuin uudenlaisten palvelujen ja toimintamallien simulaatiot niin sanotuissa sääntelyhiekkalaatikoissa, joissa niiden laillisuusvaikutuksia voidaan testata turvallisesti. Kokeilujen tulokset voivat johtaa lakiuudistuksiin, jos havaitaan, että muuten turvallisen ja hyödyllisen palvelun esteenä on vanhentuvaa sääntelyä.

Päivitetty: 27.2.2024

Älä venytä lakia vaan muuta sitä

Etenkin maailmalla digijätit venyttävät ja koettelevat kansallisten ja kansainvälisten lakien rajoja tietoisesti. Julkinen sektori ei voi tehdä niin.

Myös Suomessa digikehittäjät voivat kokea turhautumista sääntelyn rajoituksista tai vaikeaselkoisuudesta. Jos koemme, että voimassa oleva sääntely rajoittaa tai estää haluamaamme kehitystä, on pyrittävä vaikuttamaan sääntelyyn ennakoivasti, olemassa olevia menettelyjä noudattaen.

Päivitetty: 27.2.2024

Tutustu aiempiin ohjeisiin ja suosituksiin

2010-luvun alusta asti on tuotettu erittäin paljon suosituksia, julistuksia ja muistilistoja tekoäly- ja robotiikkajärjestelmien eettisen kehittämisen tueksi. Niitä ovat tuottaneet niin kansainväliset järjestöt ja julkishallinnot kuin oppi- ja tutkimuslaitoksetkin. Tämä kertoo paitsi havaitusta tarpeesta, myös siitä, että yksi dokumentti ei selvästikään riitä.

Ajan myötä aineistoissa on havaittu kriittinen ongelma: ne antavat ylätason suosituksia ja kuvaavat päämääriä, mutta eivät luo tarpeeksi siltaa konkreettiseen tekemiseen.

On helppo julistaa sitoutuvansa suunnittelemaan ja tuottamaan eettisesti kestäviä tekoälysovelluksia, jos tekoälyetiikka tiivistetään abstrakteiksi arvokkaiden asioiden luetteloiksi. Ylevien periaatteiden ja toiminnan välille muodostuu helposti vaikeasti ylitettävä kuilu.

– Tutkijat Jaana Hallamaa ja Karoliina Snell, Helsingin yliopisto
Päivitetty: 13.11.2023

Oletko tyytyväinen tämän sivun sisältöön?

Muistilista