Tekoälyasetuksen uudet vaatimukset astuivat voimaan - mitä jokaisen organisaation tulisi tietää?
EU:n tekoälyasetus (AI Act) astuu vaiheittain voimaan. Seuraava merkittävä askel saavutettiin 2.8.2025, kun uudet vaatimukset yleiskäyttöisille tekoälymalleille (general-purpose AI, GPAI) tulivat sovellettaviksi.
8/6/20252 min read
Tekoälyasetuksen uudet vaatimukset tulivat voimaan - mitä jokaisen organisaation tulisi tietää?
EU:n tekoälyasetus (AI Act) astuu vaiheittain voimaan. Seuraava merkittävä askel saavutettiin 2.8.2025, kun uudet vaatimukset yleiskäyttöisille tekoälymalleille (general-purpose AI, GPAI) tulivat sovellettaviksi.
Tässä blogikirjoituksessa kerrotaan tiiviisti, keitä vaatimukset koskevat, mitä ne sisältävät ja miksi jokaisen organisaation kannattaa silti olla valppaana, vaikka ei itse kehittäisi tekoälymalleja.
Mitä ovat yleiskäyttöiset tekoälymallit?
Yleiskäyttöisillä tekoälymalleilla tarkoitetaan malleja, joita voidaan hyödyntää useisiin eri tarkoituksiin ilman, että käyttötarkoitus on tarkkaan määritelty. Tyypillinen esimerkki on generatiivinen kielimalli, kuten ChatGPT, joka voi tuottaa tekstiä, ääntä, kuvia tai videoita.
Kenelle uudet vaatimukset asetetaan?
GPAI-vaatimukset eivät koske tekoälymallien käyttäjiä tai käyttöönottajia, vaan ne asetetaan suoraan:
- mallien kehittäjille
- mallien EU-markkinoille saattajille
- EU:n ulkopuolisille toimijoille, jotka tarjoavat mallejaan EU:ssa (näiden on nimitettävä valtuutettu edustaja)
Jos malliin liittyy systeeminen riski, on noudatettava myös lisävelvoitteita.
Siirtymäajat
2.8.2025 alkaen uudet GPAI-mallit on tuotava markkinoille vaatimustenmukaisina. Ennen tätä markkinoille tuoduilla malleilla on siirtymäaikaa 2.8.2027 saakka. Viimeistään tuohon päivämäärään mennessä myös vanhat mallit on saatettava vaatimustenmukaisiksi.
Mitä vaaditaan nyt GPAI-mallien tarjoajilta?
Kaikilta yleiskäyttöisten mallien tarjoajilta vaaditaan:
Tekninen dokumentaatio
Yhteenveto koulutusdatasta (ei yksilöintiä, mutta riittävä tarkkuus)
EU:n tekijänoikeuslainsäädännön noudattaminen
Tiedot mallin ominaisuuksista ja rajoituksista käyttäjille
EU:n ulkopuolelta tulevilta toimijoilta edustajan nimeäminen ennen markkinoille tuloa
Jos malli aiheuttaa systeemisen riskin, vaaditaan lisäksi:
Ilmoitus Euroopan komissiolle
Riskinarviointi ja hallintatoimenpiteet
Kyberturvatoimet
Tapahtumaraportointi vakavista häiriöistä tai väärinkäytöksistä
Miksi tämä koskee myös teidän organisaatiotanne?
Vaikka organisaatio ei kehittäisi tekoälymalleja itse, jokaisen tekoälyä hyödyntävän organisaation on huolehdittava vastuukysymyksistä ja pohdittava etukäteen mahdolliset riskit. Kannattaa pohtia esimerkiksi seuraavia kysymyksiä:
Käytetäänkö tekoälyjärjestelmiä tai tekoälymalleja organisaationne palveluissa sekä järjestelmissä?
Millaisiin sopimuksiin ja käyttöehtoihin organisaationne on sitoutunut?
Onko henkilöstön tekoälylukutaito ja tietosuojaosaaminen ajan tasalla?
AI Act on sääntelykehikko, mutta vastuu käytännön toteutuksesta on jokaisella organisaatiolla itsellään. Tekoälyajassa on myös huolehdittava tietosuojan asianmukaisesta toteuttamisesta.
Apua tekoälyasetuksen käytännön soveltamiseen
Lex Futura auttaa tekoälylainsäädäntöön liittyvissä kysymyksissä. Lex Futuran palveluihin kuuluvat mm.
Selkeät ja ymmärrettävät tekoälykoulutukset
Juridinen tuki ja neuvonta
Valmiit dokumenttipohjat ja sopimusratkaisut
Apua vaikutustenarviointeihin, vastuukysymyksiin sekä tekoälyn hallintamalleihin
Ota yhteyttä, jos haluat ymmärtää, mitä kaikkea tulee ottaa huomioon juuri teidän organisaatiossanne.
Varaa aika maksuttomaan alkukeskusteluun alla olevasta "Varaa aika" -painikkeesta.
Sähköposti: katja@lexfutura.fi
Puhelinnumero: 044-9010447

