Voiko pelkkä tekoälypohjainen asiointibotti olla kielletty tekoälyjärjestelmä ja johtaa jopa jättisakkoihin? Lyhyesti: kyllä voi.
EU:n tekoälyasetus (AI Act) asettaa selkeät rajat sille, millaisia tekoälyjärjestelmiä saa kehittää ja käyttää. Yksi asetuksen tiukimmista kohdista koskee kiellettyjä tekoälyjärjestelmiä. Kyseisen artiklan rikkomisesta voi saada myös kovimmat sanktiot. Tässä blogikirjoituksessa kerrotaan käytännönläheisesti, millaiset tekoälykäytännöt ovat kiellettyjä.
10/28/20252 min read
Kielletyt käytännöt eivät ole vain teoreettisia
AI Actissa puhutaan muun muassa subliminaalisista tekniikoista ja harhaanjohtavista käytännöistä. Kuulostaa monimutkaiselta, mutta komission tulkintaohjeet avaavat hyvin, mitä nämä tarkoittavat käytännössä. Mukana on kaksi yllättävän konkreettista esimerkkiä:
1) Terapeuttinen asiointibotti, joka tarjoaa mielenterveystukea, mutta hyödyntää käyttäjän heikkoa tilaa ohjatakseen tätä ostamaan kalliita lääkkeitä tai toimimaan itselleen haitallisesti.
2) Seuranpitosovellus, joka jäljittelee ihmisen puhetta, käyttäytymistä ja tunteita niin vakuuttavasti, että se alkaa vaikuttaa käyttäjän asenteisiin ja tunteisiin jopa aiheuttaen riippuvuuden kaltaista käyttäytymistä tai itsetuhoisuuden riskiä.
Nämä esimerkit osoittavat, että sääntely ei rajoitu vain “suuryritysten tekoälyjärjestelmiin”. Jo tavalliset asiointibotit ja vuorovaikutteiset sovellukset voivat kuulua riskialueelle, jos ne vaikuttavat käyttäjän päätöksiin harhaanjohtavasti tai henkilön haavoittuvuuksia hyödyntäen.
Tapauskohtainen arviointi on välttämätöntä
Tämä ei kuitenkaan tarkoita, että chatbotit tai tekoälypalvelut olisivat aina automaattisesti kiellettyjä esimerkkien mukaisissa käyttötarkoituksissa. Ratkaisevaa on ymmärtää tekoälyyn liittyvä sääntely.
Siksi jokaisen organisaation on tiedostettava, millaisia tekoälyjärjestelmiä kehitetään ja otetaan käyttöön. Tämän lisäksi on tärkeää tiedostaa, mihin riskiluokkaan järjestelmä kuuluu ja millaisia mahdollisia velvoitteita lainsäädäntö tuo omalle organisaatiolle.
Miten varmistaa, että tekoäly pysyy lain ja etiikan oikealla puolella?
Organisaatio voi hallita riskejä konkreettisesti:
Selkeät sopimus- ja käyttöehdot.
Datan läpinäkyvyys ja vinoumien hallinta.
Jatkuva riskien arviointi ja ihmisen valvonta.
Kun perusasiat ovat kunnossa, voidaan toimia turvallisesti ja ennen kaikkea luottamusta herättävästi.
Nämä säännökset ovat jo voimassa!
Moni ei tiedä, että AI Actin kiellettyjä tekoälyjärjestelmiä koskevat artiklat tulivat voimaan jo helmikuussa 2025. Toisin sanoen tämä ei ole enää tulevaisuutta, vaan nykypäivää.
Nyt on oikea hetki varmistaa, että oma organisaatio ei vahingossa riko sääntelyä tai jää kehityksestä jälkeen.
Tule mukaan AI Act -webinaareihin, seuraava järjestetään 25.11.2025
Lex Futura Oy järjestää webinaareja, joiden avulla voit ymmärtää sääntelyä ja organisaatiosi velvoitteita. Seuraava webinaari pidetään 25.11.2025. Webinaarissa pureudutaan siihen, mitä AI Act tarkoittaa käytännössä eri rooleissa toimiville organisaatioille ja miten vaatimukset hoidetaan ajoissa.
Koulutuksessa käsitellään myös tekoälyn ja tietosuojan rajapintaa (GDPR), tekijänoikeuksia ja vastuukysymyksiä selkeästi ja esimerkkien kautta.
👉 Lue lisää ja ilmoittaudu: https://www.lexfutura.fi/tulevat-webinaarit-ai-act
Sähköposti: katja@lexfutura.fi
Puhelinnumero: 044-9010447


