suomi.fi
Siirry suoraan sisältöön.
Hyvät käytännöt kehittäjille

Tekoälyn vastuullinen hyödyntäminen

Varaudu oikein

Tunnista turvallisuusuhat ja -mahdollisuudet

Tekoäly aiheuttaa uusia haasteita turvallisuudelle. Kyberrikolliset ja vihamieliset toimijat voivat sen avulla tehostaa omaa toimintaansa, automatisoida hyökkäyksiä ja kohdentaa niitä aiempaa tarkemmin havaitsemaan kohdejärjestelmien haavoittuvuuksia.

Toisaalta tekoälyn analytiikkakyvyt antavat mahdollisuuksia kehittää turvajärjestelmiä, jotka luotaavat ja arvioivat suojattavaan järjestelmään kohdistuvaa liikennettä tarkemmin kuin nykyiset menettelyt.

Jokainen tekoälyjärjestelmä, joka käyttää useita datalähteitä, on yhteydessä toisiin järjestelmiin ja vaikuttaa organisaatioiden ja/tai ihmisten toimintaan ja oikeuksiin, on ekosysteemitoimija. Sellaisena jokainen AI on vastuussa ei vain omastaan, vaan koko ekosysteemin luotettavuudesta ja turvallisuudesta. Siksi järjestelmää suunniteltaessa on huomioitava niin kutsutut security by design ja privacy by design -näkökulmat.

Päivitetty: 31.10.2023

Vain dokumentoitua järjestelmää voi arvioida

Jotta tekoälyjärjestelmä voidaan auditoida, se on dokumentoitava. Viat ja virheelliset toiminnot voidaan korjata vain, jos dokumentaatio on yksityiskohtaista ja ajan tasalla.

Euroopan Unionin kannanotto tekoälyyn määrittää, mitä organisaation tulee tekoälyjärjestelmästään dokumentoida:

  • järjestelmän tavoite ja tarkoitus
  • järjestelmän tiedossa olevat kyvykkyydet ja rajoitteet
  • missä olosuhteissa järjestelmän on tarkoitus toimia
  • mikä on tuotosten odotettu tarkkuus, jolla järjestelmälle asetettu tavoite voidaan saavuttaa
  • kuvaus algoritmin ohjelmointiin liittyvästä opetusdatasta ja sen säilyttämisestä
  • riskialttiiden tekoälyjärjestelmien tapauksessa itse opetusdata.

Käytännössä dokumentointi voi kuitenkin olla haastavaa. Algoritmisen päättelyn musta laatikko vaikeuttaa myös virheisiin reagoimista. Miten korjata jokin, jonka toimintaa ei ymmärrä?

Päivitetty: 26.9.2023

Tekoälyhankintoihin voi liittyä pimeitä tuotantoketjuja

Ei ole hyväksyttävää kerätä koulutusdataa tekoälyjärjestelmään epämääräisistä lähteistä tai epäeettisillä menetelmillä. Myös fyysisen järjestelmän tuotantoketjuun on suhtauduttava aivan yhtä kriittisesti.

On osattava kysyä:

  • Mistä komponentit tulevat?
  • Mistä niissä käytetyt raaka-aineet?
  • Millaisella työllä ne on tuotettu ja millaisissa oloissa?
  • Millä tavoin koko tuotantoketjussa käytetty energia on tuotettu?
  • Mistä tulee energia järjestelmien pyörittämiseen, kielimallien kouluttamiseen ja datan louhintaan?

Tekoälyjärjestelmien monitahoisessa kokonaisuudessa voi olla ”pimeitä” tuotantoketjuja, joihin sisältyy ympäristötuhoa ja ihmisoikeuksien polkemista. Julkisella vallalla on erityinen vastuu siinä, että sen hankinnoissa noudatetaan mahdollisimman vahvaa arvopohjaa ja läpinäkyvyyttä.

Päivitetty: 29.2.2024

Oppivia järjestelmiä on vaikea hallita

Toisin kuin kovakoodattu, sääntöpohjainen ohjelmistorobotiikka, kone- ja syväoppimiseen perustuvat järjestelmät pyrkivät aina vain paremmin optimoimaan niille annettua tehtävää tai tavoitetta. Ajan myötä niiden tavallaan kuuluukin antaa myöhemmin erilaisia tuotoksia kuin käyttöönotettaessa.

Pitäisikö tekoälyn pystyä oppimaan virheistään? 

Helppo vastaus olisi "kyllä", mutta itseoppiva järjestelmä tarkoittaa järjestelmää, joka muuttaa omaa ohjelmointiaan ja algoritmiaan ja voi ajautua suunnittelijoidensa ja omistajiensa valvonnan ulkopuolelle. Toisin sanoen, haluammeko koneita, joiden toiminta on arvaamatonta uusissa tilanteissa?” 

– Tekoälyetiikan tutkija Wendell Wallach, Yalen yliopisto

Pitkälle kehittyneiden tekoälyjen toiminnan ymmärtäminen on erittäin haastavaa niiden kehittäjillekin. Siksi ennakointi on vaikeaa ja myös hallittavuus voi muuttua ongelmaksi.

Päivitetty: 4.10.2023

Oletko tyytyväinen tämän sivun sisältöön?

Muistilista