Liian itsenäisen tekoälyn riskit
Kaikkia oppivien järjestelmien yllättäviä toimintoja ei voida analysoida tai havaita koneellisesti. Jatkuva seuranta, datan hallinta ja vaikutustenarviointi onkin kriittisen tärkeää, jotta oppiva järjestelmä ei lähtisi ”omille teilleen” ja etääntyisi sille asetetusta tavoitteesta.
Järjestelmä voi teknisesti toimia moitteettomasti samaan aikaan, kun sen tuotokset ovat vääriä. Edes kehittynein tekoäly ei tiedä minkään olevan pielessä, vaikka se tuottaisi vääristynyttä, väärää tai itse keksimäänsä ”tietoa”. Esimerkiksi ChatGPT:n on todettu tekevän näin huolestuttavan paljon.
Koska koneella ei ole tietoisuutta eikä omaatuntoa, tarvitaan ihmisiä, jotka tarkkailevat sekä tuotosten laatua että käyttökelpoisuutta.