EU:n tekoälysäädös tuo mukanaan muutoksia, joihin kaikkien yritysten on valmistauduttava. Helmikuusta 2025 eteenpäin tekoälylukutaito on lakisääteinen vaatimus. Tämä tarkoittaa sitä, että kaikkien, jotka tarjoavat tai käyttävät AI-järjestelmiä, tulee hallita tietyt perustaidot. Käyttäjien täytyy esimerkiksi ymmärtää, miten tekoälyä kehitetään ja käytetään vastuullisesti, miten tuloksia tulkitaan ja miten tekoäly vaikuttaa ihmisiin.
EU:n tekoälysäädös (EU AI Act) on maailman ensimmäinen kattava tekoälylaki. Sen tavoitteena on, että tätä uutta innovatiivista teknologiaa käytetään ja kehitetään vastuullisesti. Säädöksellä halutaan varmistaa, että EU:ssa käytettävät AI-järjestelmät ovat turvallisia, oikeudenmukaisia ja myös ympäristöystävällisiä. Tekoälyn valvonnan täytyy olla ihmisten vastuulla eikä automaattista, jotta sen turvallisuus voidaan varmistaa.
Tekoälyasetusta aletaan soveltaa vaiheittain vuosien 2025 ja 2026 aikana. Ensimmäiset velvoitteet tulivat voimaan 2.2.2025. Nämä koskevat tekoälylukutaitoa yleisellä tasolla ja sitä, mitkä ovat vaarallisia, EU:ssa kiellettyjä tekoälysovelluksia.
EU:ssa kiellettyjä tekoälysovelluksia ovat esimerkiksi:
– yksilöiden ja heikommassa asemassa olevien ihmisten käytöksen manipuloiminen, kuten ääniaktivoituvat lelut, jotka kannustavat vaaralliseen käytökseen
– sosiaalinen pisteytys, jossa ihmiset jaetaan ryhmiin käytöksen, aseman tai ominaisuuksien perusteella
– henkilöiden biometrinen tunnistaminen ja luokittelu
– reaaliaikaisten biometristen tunnistusjärjestelmien käyttö julkisissa tiloissa
Kieltojen suhteen voidaan sallia joitakin poikkeuksia lainvalvonnan tarkoituksiin. Esimerkiksi biometristen tunnistusjärjestelmien käyttö voidaan sallia, jos ollaan tutkimassa vakavaa rikosta ja käytölle on oikeuden päätös.
Eri riskitasot
Tekoälyjärjestelmän riskiluokitus vaikuttaa siihen, mitkä yrityksen velvollisuudet ovat. Asiakaspalvelussa käytettävän botin suhteen vaatimukset ovat kevyemmät. Jos sen sijaan tekoälyn avulla tehdään päätöksiä esimerkiksi rekrytoinnissa, sääntely on tiukempaa. Yritysten on hyvä tutustua riskiluokitukseen, sillä se auttaa varautumaan sääntelyyn.
Tekoälyjärjestelmät analysoidaan ja luokitellaan käyttäjille aiheutuvan riskin mukaan. Tämän perusteella tekoälysovellukset jaetaan neljään luokkaan.
Ei hyväksyttävissä oleva riski: Tähän kategoriaan kuuluvat yllä luetellut EU:ssa kielletyt tekoälysovellukset, joiden tarkoitus on manipuloida ihmisten käyttäytymistä tai jotka käyttävät laajamittaista biometristä tunnistamista.
Suuri riski: Keinoälyjärjestelmät, jotka vaikuttavat negatiivisesti turvallisuuteen tai perusoikeuksiin, kuuluvat tähän ryhmään. Näitä ovat esimerkiksi terveydenhuollossa, koulutuksessa, lainvalvonnassa ja rekrytoinnissa käytettävät järjestelmät. Tällaisilta sovelluksilta vaaditaan läpinäkyvyyttä ja dokumentointia. Suuririskisiä järjestelmiä täytyy arvioida ennen kuin ne pääsevät markkinoille ja valvontaa on jatkettava koko järjestelmän elinkaaren ajan.
Vähäinen riski: Tähän ryhmään kuuluvat esimerkiksi asiakaspalvelubotit ja chatbotit. Käyttäjällä täytyy olla tieto siitä, että hän on tekemisissä tekoälyn kanssa.
Rajoitettu riski: Sovellukset, joiden käyttö ei aiheuta merkittävää riskiä, mutta joissa täytyy kuitenkin olla läpinäkyvä tekoälyn käytön suhteen.
Myös ChatGPT ja muut yleiskäyttöiset tekoälyratkaisut kuuluvat AI Actin sääntelyn piiriin. ChatGPT ei ole suuren riskin järjestelmä, mutta myös sen pitää noudattaa avoimuusvaatimuksia ja tekijänoikeuslakia. Tekoälyn luoma tai muokkaama sisältö pitää merkitä selvästi, jotta käyttäjä tietää, milloin kyseessä on tekoälyyn pohjautuva sisältö. Asetus asettaa erityisvaatimuksia tällaisille tekoälymalleille, jos niitä käytetään suuren riskin sovelluksissa tai niiden katsotaan aiheuttavan järjestelmäriskejä.
Tekoälylukutaito vaatii koulutusta
Uuden asetuksen mukaan kaikkien tekoälyä käyttävien tai tarjoavien yritysten täytyy varmistaa, että henkilöstön tekoälyosaaminen on riittävällä tasolla. Tämä koskee kaikkia yrityksiä pienistä startupeista suuryrityksiin. Kaikkien työntekijöiden ei tarvitse ryhtyä tekoälyasiantuntijoiksi, mutta jokaisen pitää osata käyttää tekoälyä vastuullisesti.
Tekoälyjärjestelmien käyttäjien täytyy ymmärtää, miten työkalut toimivat ja miten niitä käytetään parhaalla mahdollisella tavalla. Perustason tekoälykoulutuksessa voidaan käydä läpi esimerkiksi tietoturvaan ja tekijänoikeuksiin liittyviä asioita ja opitaan, miten tekoäly toimii, miten se oppii ja mitkä ovat sen rajoitukset. Syventävässä koulutuksessa pureudutaan tekoälyyn syvällisemmin. Siinä voidaan opetella esimerkiksi, miten varmistetaan, että tekoälyn avulla tehdyt päätökset ovat läpinäkyviä ja miten vähennetään AI-järjestelmään liittyviä riskejä.
Yritysten on pystyttävä osoittamaan, että henkilöstö hallitsee AI:n keskeiset periaatteet ja osaa tehdä tietoon perustuvia päätöksiä sen kanssa. On yritysten oma päätös, miten työntekijöiden perehdytys toteutetaan. Yritys voi esimerkiksi järjestää koulutuksia sekä laatia ohjeistuksia ja linjauksia. Lisäksi voidaan tehdä tietosuojaan ja etiikkaan liittyviä varotoimia.
Jokaisen EU-maan täytyy nimetä valvontaviranomainen, joka huolehtii asetuksen täytäntöönpanosta kyseisessä maassa. Suomessa tätä tehtävää ei olla vielä jaettu, mutta se voisi kuulua työ- ja elinkeinoministeriön (TEM) alaisuuteen. Valvontaan saattavat osallistua tarvittaessa myös muut ministeriöt, kuten liikenne- ja viestintäministeriö tai tietosuojavaltuutetun toimisto. Lopullinen päätös asiaan tullee kuluvan vuoden aikana.