Tekoälyjärjestelmän vaikutuksia ei pääsääntöisesti tarvitse arvioida ennalta lainkaan siinä ympäristössä, jossa se otetaan käyttöön, kerrotaan tuoreessa tutkimuksessa. Kuva: Pixabay

Nea Lepinkäisen väitöstutkimus osoittaa, että tekoälyn sääntely jättää huomiotta valtavan haittapotentiaalin.

Tutkimuksen mukaan tekoälyyn liittyviä niin kutsuttuja algoritmisia haittoja ei vielä tunnisteta kattavasti. Se tekee tehokkaasta haittoihin puuttumisesta vaikeaa tai jopa mahdotonta.

Lisäksi Turun yliopisto tiedottaa, että Lepinkäisen (OTM) oikeussosiologian väitöskirja tarkastetaan ensi lauantaina.

Tekoälyteknologioiden mahdollisista haitoista on kyetty tunnistamaan vasta osa.

Lepinkäinen arvioi oikeussosiologian väitöskirjassaan haittoja, joita algoritmisiin teknologioihin liittyy nyky-yhteiskunnassa.

Analyysi paljastaa, että etenkään tekoälyn epäsuoria, niin kutsuttuja seurannaishaittoja, ei vielä ymmärretä riittävän hyvin.

– Epäsuorat haitat voivat kohdistua paitsi yksilöihin ja ryhmiin myös yhteiskuntiin laajemmin. Tekoälyn epäsuorat haitat voivat Lepinkäisen mukaan muuttaa yhteiskunnallista todellisuutta suuntaan, jossa ihmisten mahdollisuudet hyvään elämään heikkenevät, tutkimuksessa kerrotaan.

– Kun algoritmisia haittoja ei tunnisteta kattavasti, niitä ei pystytä myöskään tehokkaasti sääntelemään. Haittoja rajoittavat ratkaisut jäävätkin vaillinaisiksi EU:n uudessa tekoälysäädöksessä.

Yhteisvaikutus ymmärrettävä

Lisäksi tiedotteessa arvioidaan, että etenkään seurannaishaittoihin puuttumiseen ei lähitulevaisuudessa ole luvassa tehokkaita apuja.

Edes korkeariskisen tekoälyn vaikutuksia ei juuri arvioida.

– Tekoälysäädös keskittyy vahvasti tekoälyjärjestelmien tuotannon sääntelyyn, Lepinkäinen kertoo tiedotteen mukaan.

– Tällainen sääntely pystyy kyllä puuttumaan moniin välittömästi teknisistä ratkaisuista seuraaviin haittoihin, mutta se jättää huomiotta tärkeän seikan. Tekoälyn haittapotentiaalista valtava osa muodostuu teknisten ratkaisujen, järjestelmän käytön sekä käyttöympäristön yhteisvaikutuksista.

Tekoälyjärjestelmän vaikutuksia ei pääsääntöisesti tarvitse arvioida ennalta lainkaan siinä ympäristössä, jossa se otetaan käyttöön – vaikka järjestelmä olisi tunnistettu suuririskiseksi.

Poikkeuksen muodostavat hallinnolliset toimijat, joille on asetettu velvoite arvioida suuririskisen tekoälyjärjestelmän käytöstä seuraavia ihmisoikeusvaikutuksia.

Arviointivelvoite vain osalla

Lepinkäisen mukaan ihmisoikeusvaikutusten arvioinnissa on potentiaalia, mutta se ei juurikaan auta tunnistamaan selvistä ihmisoikeusrikkomuksista etääntyviä haittoja.

Todelliset vaikutukset jäävät vaisuiksi, kun arviointivelvoite koskettaa vain pientä osaa tekoälyä hyödyntävistä toimijoista.

– Jos haittoja haluttaisiin tehokkaasti estää, velvoitetta vaikutusten arviointiin pitäisi ehdottomasti laajentaa, Lepinkäinen arvioi.

Lue myös:

Jatka keskustelua #kuntalehti @kuntalehti Twitterissä tai Facebookissa.

Keskustele

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *

*