Suomi.fi för tjänsteutvecklare
Gå direkt till innehållet.
God praxis för tjänsteutvecklare
Ansvarsfullt användande av artificiell intelligens

Beakta lagar och rekommendationer

System inom den offentliga förvaltningen ska vara reglerade

Datasystem och digitala tjänster inom den offentliga förvaltningen ska genomföras på samma sätt som all myndighetsverksamhet: med iakttagande av lagar och förordningar både på nationell nivå och EU-nivå.

Den offentliga sektorns huvudsakliga uppgift med tanke på den teknologiska omvälvningen är att skapa förutsättningar för att utnyttja teknologi i hela samhället på ett etiskt hållbart och säkert sätt.

– Ministeriernas framtidsöversikt, 2022

Uppdaterad: 23.2.2024

Lagstiftning för artificiell intelligens nu och i framtiden

Finlands och EU:s lagar innehåller redan bestämmelser om bland annat

  • godtagbar användning av artificiell intelligens
  • digitala tjänster
  • jämlikhet och likabehandling
  • integritet och dataskydd (GDPR)
  • användning av data.

I Finland trädde automatiskt beslutsfattande inom den offentliga förvaltningenÖppnas i ett nytt fönster. i vissa typer av ärenden i kraft i maj 2023, men det gäller inte inlärningssystem såsom artificiell intelligens.

Europaparlamentet antog Europeiska unionens Förordning om artificiell intelligensÖppnas i ett nytt fönster. (EU AI Act) i december 2023, och den trädde i kraft som förordning den 1 augusti 2024. I praktiken kommer förordningens delar att tillämpas stegvis under de tre år som följer på dess ikraftträdande. AI-förordningen är den huvudsakliga förordningen som reglerar kraven på och användningen av AI-system i EU:s medlemsländer.

Uppdaterad: 24.2.2025

Finlands nuvarande lagstiftning möjliggör inte beslutsfattande med maskininlärande system

På vilka grunder fattar en maskin ett beslut?

I fall som den automatiska beskattningen kan man påvisa processens orsakssamband. Personen har förtjänat ett visst eurobelopp för vissa objekt under en viss tid och skattebeslutet beräknas direkt utifrån Skatteförvaltningens regler.

Logiken för artificiell intelligens grundar sig på komplicerade statistiska sannolikheter, vilket gör det svårt att konstatera ett tydligt orsakssamband. Om det dessutom är fråga om ett lärande algoritmsystem som kan anpassa sin verksamhet efter input är utmaningen ganska omöjlig.

Därför berör Finlands gällande lagstiftning om automatiserat beslutsfattande inte alls lärande system, det vill säga i praktiken artificiell intelligens. Maskininlärningssystem kan användas för att stödja arbetet, även inom administration, men inte i beslutsfattande, åtminstone för nu.

Uppdaterad: 27.2.2024

Förordningen om artificiell intelligens ställer krav på system med hög risk

EU:s förordning om artificiell intelligens (AI Act) förbjuder inte helt men begränsar avsevärt användningen av maskininlärningssystem för beslutsfattande i EU:s förvaltningar.. I AI-system med hög risk klassificeras till exempel tillämpningar med anknytning till utbildning, hälsa och välbefinnande, arbetslivet, förmåner och trafik – det vill säga i praktiken nästan hela fältet för offentliga tjänster.

System med hög risk ska ha:

  • tillräckliga riskbedömnings- och riskreduceringssystem
  • hög kvalitet på datamängder som stöder systemet
  • registrering av verksamheten för att säkerställa resultatens spårbarhet
  • tydlig och tillräcklig information för användaren
  • ändamålsenliga åtgärder för övervakning av människor
  • hög hållbarhet, säkerhet och detaljerad dokumentation som innehåller all information om systemet för att myndigheterna ska kunna bedöma efterlevnaden av systemet.

Observera att förordningen också kräver att organisationer har AI-läskunnighet. Detta krav trädde i kraft i februari 2025, i början av den stegvisa implementeringen av förordningen:

"Leverantörer och tillhandahållare av AI-system ska vidta åtgärder för att i största möjliga mån säkerställa att deras personal och andra personer som för deras räkning arbetar med drift och användning av AI-system har tillräcklig AI-kunnighet, med beaktande av deras tekniska kunskaper, erfarenhet och utbildning samt det sammanhang i vilket AI-systemen ska användas, och med hänsyn till de personer eller grupper av personer på vilka AI-systemen ska användas." (Avsnitt 1, Artikel 4)

Uppdaterad: 19.9.2025

Förordningen om artificiell intelligens begränsar poängsättningen och profileringen av EU-medborgare

Den högsta riskkategorin (unacceptable risk) i riskklassificeringen i EU:s förordning om artificiell intelligens förbjuder poängsättning och profilering med hjälp av artificiell intelligens som grundar sig på uppgifter om individens sociala beteende, hens socioekonomiska status eller hens egenskaper som person.

Förordningen förbjuder inte helt databaserad profilering. Profilering är tillåten om det är nödvändigt för att genomföra en viss lagenlig process eller om personen har gett sitt samtycke. Det kan till exempel vara tillåtet att göra en patientprofilering som grundar sig på en persons hälsodata eller en bedömning av betalningsförmågan före bankens lånebeslut. I sådana fall krävs dock personens samtycke.

Det lämnar rum för tolkning i vilken mån riskklassificeringsmodellen tillsammans med poängsättnings- och profileringsbegränsningarna förhindrar automatiskt beslutsfattande som grundar sig på maskininlärning i ett ärende som är beroende av medborgarens prövning. Kanske kan detta ske först efter en längre tid och efter att teknologin har mognat.

Uppdaterad: 11.3.2024

Tjänsteansvaret blir komplicerat i många aktörers system

Den offentliga förvaltningens system för artificiell intelligens utmanas också av det lagstadgade tjänsteansvaret. När problem uppstår är frågan om det yttersta ansvaret ofta svår eftersom ett system omfattar många aktörer och dimensioner, såsom

  • datamaterial, av vilka en del eller allt kan ha producerats av andra parter
  • tekniska leverantörer
  • programmerare
  • personer som ansvarar för algoritmer.
Uppkomsten av ansvar när det gäller algoritmiskt beslutsfattande förutsätter kontakt mellan tjänstemannen och beslutsprocessen. I den regelbaserade automatiseringen kan tjänstemannen vid behov bekanta sig med grunderna för systemets funktion och därmed även med grunderna för de beslut som fattats.

I system baserade på artificiell intelligens kan däremot inte ens nödvändigtvis den som utvecklar systemet alltid ta reda på vilka omständigheter systemets slutresultat grundar sig på.

Statsrådets utrednings- och forskningsverksamhet: Algoritm som beslutsfattare? (på finska)Öppnas i ett nytt fönster.
Uppdaterad: 9.11.2023

I beslut enligt prövning kan artificiell intelligens vara till hjälp

Eftersom lagen inte gäller lärande system begränsar den i praktiken beslut om ärenden som är beroende av prövning nästan helt och hållet utanför myndigheternas verksamhet. Om beslutet inte kan motiveras på den nivå som rättsskyddet förutsätter, ska det inte alls fattas.

Det kan ändå vara möjligt att använda artificiell intelligens som hjälp vid behandlingen av ett ärende som är beroende av prövning när den slutliga beslutanderätten förblir hos människan. Även då måste det vara transparent och klart vad och hur den artificiella intelligensen har behandlat i ärendet och hur dess resultat har beaktats när beslutet fattades.

Utanför beslutsfattande kan artificiell intelligens användas som stödverktyg i vissa fall, om organisationens policyer och instruktioner tillåter det.

Uppdaterad: 13.11.2023

Avvikelser från bestämmelserna kan göras endast vid simuleringar

I innovativa tjänster baserade på artificiell intelligens inom den offentliga sektorn i Finland måste man beakta de etiska aspekterna för att säkerställa att de är rättvisa, objektiva, tillförlitliga och ansvarsfulla. De ska även planeras i enlighet med relevanta kommunala, nationella och EU-baserade regelverk.

AI-forskarna Nitin Sawhney och Ana Paula Gonzales Torres i Aalto-universitetets publikation (på engelska)Öppnas i ett nytt fönster.

Den gällande lagstiftningen kan ibland bromsa eller helt förhindra att även nyttiga system och tjänster utvecklas.

Det finns inget annat spelrum än simuleringar av nya tjänster och handlingsmodeller i så kallade regulatoriska sandlådor, där deras konsekvenser för lagenligheten kan testas på ett säkert sätt. Försöksresultaten kan visserligen leda till lagreformer om man upptäcker att föråldrade bestämmelser utgör ett hinder för en i övrigt trygg och nyttig tjänst.

Uppdaterad: 7.8.2024

Stretcha inte lagen utan ändra den

I synnerhet ute i världen tänjer och prövar digitala jättar medvetet gränserna för nationella och internationella lagar. Den offentliga sektorn kan inte göra det.

Även i Finland kan digitala utvecklare uppleva frustration över begränsningar i regleringen eller svårbegriplighet. Om vi upplever att den befintliga regleringen begränsar eller hindrar den utveckling vi önskar, måste vi sträva efter att påverka regleringen på ett proaktivt sätt i enlighet med befintliga förfaranden.

Uppdaterad: 27.2.2024

Bekanta dig med tidigare anvisningar och rekommendationer

Sedan början av 2010-talet har många rekommendationer, deklarationer och minneslistor producerats som stöd för den etiska utvecklingen av AI- och robotiksystem. Dessa har producerats av såväl internationella organisationer och offentliga förvaltningar som läroanstalter och forskningsinstitut. Detta vittnar inte bara om ett observerat behov, utan också om att ett dokument med rekommendationer helt klart inte räcker till.

Med tiden har man upptäckt ett kritiskt problem i dokumenten: de ger rekommendationer på högre nivå och beskriver målen, men skapar inte en tillräcklig koppling till det konkreta arbetet.

Om artificiell intelligens komprimeras till abstrakta förteckningar över värdefulla saker är det lätt att förkunna att man förbinder sig till att planera och producera etiskt hållbara tillämpningar för artificiell intelligens. Mellan de allmänna principerna och verksamheten uppstår lätt en klyfta som är svår att överskrida.

– Forskare Jaana Hallamaa och Karoliina Snell, Helsingfors universitet

Uppdaterad: 6.3.2025

Är du nöjd med innehållet på denna sida?

Minneslista