Tekoälyasetuksen uudet vaatimukset astuivat voimaan - mitä jokaisen organisaation tulisi tietää?

EU:n tekoälyasetus (AI Act) astuu vaiheittain voimaan. Seuraava merkittävä askel saavutettiin 2.8.2025, kun uudet vaatimukset yleiskäyttöisille tekoälymalleille (general-purpose AI, GPAI) tulivat sovellettaviksi.

8/6/20252 min read

a close up of a computer screen with a menu on it
a close up of a computer screen with a menu on it
Tekoälyasetuksen uudet vaatimukset tulivat voimaan - mitä jokaisen organisaation tulisi tietää?

EU:n tekoälyasetus (AI Act) astuu vaiheittain voimaan. Seuraava merkittävä askel saavutettiin 2.8.2025, kun uudet vaatimukset yleiskäyttöisille tekoälymalleille (general-purpose AI, GPAI) tulivat sovellettaviksi.

Tässä blogikirjoituksessa kerrotaan tiiviisti, keitä vaatimukset koskevat, mitä ne sisältävät ja miksi jokaisen organisaation kannattaa silti olla valppaana, vaikka ei itse kehittäisi tekoälymalleja.

Mitä ovat yleiskäyttöiset tekoälymallit?

Yleiskäyttöisillä tekoälymalleilla tarkoitetaan malleja, joita voidaan hyödyntää useisiin eri tarkoituksiin ilman, että käyttötarkoitus on tarkkaan määritelty. Tyypillinen esimerkki on generatiivinen kielimalli, kuten ChatGPT, joka voi tuottaa tekstiä, ääntä, kuvia tai videoita.

Kenelle uudet vaatimukset asetetaan?

GPAI-vaatimukset eivät koske tekoälymallien käyttäjiä tai käyttöönottajia, vaan ne asetetaan suoraan:

- mallien kehittäjille

- mallien EU-markkinoille saattajille

- EU:n ulkopuolisille toimijoille, jotka tarjoavat mallejaan EU:ssa (näiden on nimitettävä valtuutettu edustaja)

Jos malliin liittyy systeeminen riski, on noudatettava myös lisävelvoitteita.

Siirtymäajat

2.8.2025 alkaen uudet GPAI-mallit on tuotava markkinoille vaatimustenmukaisina. Ennen tätä markkinoille tuoduilla malleilla on siirtymäaikaa 2.8.2027 saakka. Viimeistään tuohon päivämäärään mennessä myös vanhat mallit on saatettava vaatimustenmukaisiksi.

Mitä vaaditaan nyt GPAI-mallien tarjoajilta?

Kaikilta yleiskäyttöisten mallien tarjoajilta vaaditaan:

  • Tekninen dokumentaatio

  • Yhteenveto koulutusdatasta (ei yksilöintiä, mutta riittävä tarkkuus)

  • EU:n tekijänoikeuslainsäädännön noudattaminen

  • Tiedot mallin ominaisuuksista ja rajoituksista käyttäjille

  • EU:n ulkopuolelta tulevilta toimijoilta edustajan nimeäminen ennen markkinoille tuloa

Jos malli aiheuttaa systeemisen riskin, vaaditaan lisäksi:

  • Ilmoitus Euroopan komissiolle

  • Riskinarviointi ja hallintatoimenpiteet

  • Kyberturvatoimet

  • Tapahtumaraportointi vakavista häiriöistä tai väärinkäytöksistä

Miksi tämä koskee myös teidän organisaatiotanne?

Vaikka organisaatio ei kehittäisi tekoälymalleja itse, jokaisen tekoälyä hyödyntävän organisaation on huolehdittava vastuukysymyksistä ja pohdittava etukäteen mahdolliset riskit. Kannattaa pohtia esimerkiksi seuraavia kysymyksiä:

Käytetäänkö tekoälyjärjestelmiä tai tekoälymalleja organisaationne palveluissa sekä järjestelmissä?

Millaisiin sopimuksiin ja käyttöehtoihin organisaationne on sitoutunut?

Onko henkilöstön tekoälylukutaito ja tietosuojaosaaminen ajan tasalla?

AI Act on sääntelykehikko, mutta vastuu käytännön toteutuksesta on jokaisella organisaatiolla itsellään. Tekoälyajassa on myös huolehdittava tietosuojan asianmukaisesta toteuttamisesta.

Apua tekoälyasetuksen käytännön soveltamiseen

Lex Futura auttaa tekoälylainsäädäntöön liittyvissä kysymyksissä. Lex Futuran palveluihin kuuluvat mm.

  • Selkeät ja ymmärrettävät tekoälykoulutukset

  • Juridinen tuki ja neuvonta

  • Valmiit dokumenttipohjat ja sopimusratkaisut

  • Apua vaikutustenarviointeihin, vastuukysymyksiin sekä tekoälyn hallintamalleihin

Ota yhteyttä, jos haluat ymmärtää, mitä kaikkea tulee ottaa huomioon juuri teidän organisaatiossanne.

Varaa aika maksuttomaan alkukeskusteluun alla olevasta "Varaa aika" -painikkeesta.