AI Act imple­men­ta­tie dead­line: ver­plich­tin­gen voor aan­bie­ders van gene­ral-pur­po­se AI van­af 2 augus­tus 2025

Blog

Published 14 augustus 2025 Reading time min Auteur Robin Ver­hoe­ven Digital, Cyber & Privacy

De AI Act kent van­af 2 augus­tus vorig jaar een gefa­seer­de inwer­king­tre­ding, zoals wij in een eer­de­re blogpost heb­ben toe­ge­licht. Eer­der gin­gen al de ver­plich­tin­gen tot het uit­fa­se­ren van ver­bo­den AI-sys­te­men en het waar­bor­gen van AI-gelet­terd­heid in. Van­af 2 augus­tus 2025 zijn ook de ver­plich­tin­gen uit de AI Act voor aan­bie­ders van AI-model­len voor alge­me­ne doel­ein­den (gene­ral-pur­po­se AI) van toe­pas­sing. In deze blog lich­ten wij deze ver­plich­tin­gen toe.

Wat zijn AI-model­len voor alge­me­ne doel­ein­den?

Dit zijn model­len die een breed sca­la aan ver­schil­len­de taken kun­nen uit­voe­ren en die voor uit­een­lo­pen­de toe­pas­sin­gen inzet­baar zijn. Denk aan AI-model­len die kun­nen wor­den inge­zet voor tekst­ge­ne­ra­tie of het samen­vat­ten van docu­men­ten, zon­der dat deze voor­af spe­ci­fiek zijn ont­wik­keld voor een bepaal­de sec­tor of spe­ci­fie­ke toe­pas­sing. Voor­beel­den zijn de AI-model­len die de basis vor­men voor de AI-sys­te­men Chat­G­PT, Clau­de en Goog­le Gemi­ni.

Wat zijn de ver­plich­tin­gen voor aan­bie­ders van der­ge­lij­ke model­len?

Aan­bie­ders van AI-model­len voor alge­me­ne doel­ein­den moe­ten onder meer tech­ni­sche docu­men­ta­tie opstel­len, infor­ma­tie beschik­baar stel­len over de capa­ci­tei­ten en beper­kin­gen van het AI-model en trans­pa­rant zijn over de gebruik­te trai­nings­da­ta. Daar­naast gel­den aan­vul­len­de ver­plich­tin­gen voor AI-model­len met een “sys­teem­ri­si­co”. Dat wil zeg­gen AI-model­len waar­van de capa­ci­tei­ten gro­te impact heb­ben, bij­voor­beeld op de open­ba­re vei­lig­heid. De kern van deze aan­vul­len­de ver­plich­tin­gen is het iden­ti­fi­ce­ren, beper­ken en moni­to­ren van de systeemrisico’s.

Een AI-model kan wor­den geïn­te­greerd in een AI-sys­teem, dat daar­naast bestaat uit onder meer soft­wa­re en inter­fa­ces die de toe­pas­sing van het model in een spe­ci­fie­ke con­text moge­lijk maken. Voor AI-sys­te­men voor alge­me­ne doel­ein­den gel­den – net als voor ande­re AI-sys­te­men – de alge­me­ne ver­plich­tin­gen uit de AI Act, zoals trans­pa­ran­tie­ver­plich­tin­gen en, indien van toe­pas­sing, het uit­voe­ren van een con­for­mi­teits­be­oor­de­ling.

Het Euro­pe­se AI Offi­ce heeft een gedragscode voor AI-model­len voor alge­me­ne doel­ein­den gepu­bli­ceerd: de Gene­ral-Pur­po­se AI Code of Prac­ti­ce. De gedrags­co­de is opge­steld om aan­bie­ders te hel­pen bij het nale­ven van de ver­plich­tin­gen uit de AI Act. Onder meer Ope­nAI, Micro­soft en Goog­le heb­ben de gedrags­co­de onder­te­kend.

Waar doen orga­ni­sa­ties die AI-sys­te­men inko­pen of anders­zins gebrui­ken goed aan?

Van­af 2 augus­tus 2025 zijn de hier­bo­ven beschre­ven ver­plich­tin­gen uit de AI Act voor aan­bie­ders van AI-model­len voor alge­me­ne doel­ein­den van toe­pas­sing. Tege­lij­ker­tijd wordt bin­nen orga­ni­sa­ties steeds vaker gebruik­ge­maakt van AI-sys­te­men, zoals Chat­G­PT of Copi­lot.

Voor­af­gaand aan de inkoop of inzet van een AI-sys­teem bin­nen de orga­ni­sa­tie is het goed om te beoor­de­len welk AI-sys­teem het bes­te aan­sluit bij de doel­stel­lin­gen en het risi­co­pro­fiel van de orga­ni­sa­tie. Belang­rij­ke aan­dachts­pun­ten daar­bij zijn de even­tu­e­le beper­kin­gen van het AI-sys­teem die het gebruik voor de beoog­de toe­pas­sing onge­schikt of risi­co­vol maken (zoals hal­lu­ci­na­ties) en de mate van trans­pa­ran­tie over de wer­king van het AI-sys­teem.

Zodra het geschik­te AI-sys­teem is geko­zen, is zorg­vul­dig con­trac­te­ren met de aan­bie­der van het AI-sys­teem cru­ci­aal. Leg dui­de­lij­ke afspra­ken vast over het doel, de capa­ci­tei­ten en het beoog­de gebruik van het AI-sys­teem, de bevei­li­gings­ei­sen (zoals ISO-cer­ti­fi­ce­ring), de beschik­baar­heid van infor­ma­tie over het AI-sys­teem en de ser­vi­ce­ni­veaus, waar­on­der de beschik­baar­heid en de reac­tie­tijd voor het ver­hel­pen van pro­ble­men.

Orga­ni­sa­ties van elke omvang doen er daar­naast goed aan om het gebruik van AI bin­nen de orga­ni­sa­tie te regu­le­ren. Dit kan door het opstel­len van een AI Code of Con­duct: een beleids­do­cu­ment waar­in basis­ken­nis over de wer­king van AI wordt vast­ge­legd, aan­ge­vuld met dui­de­lij­ke richt­lij­nen over het (toe­ge­sta­ne) gebruik van AI bin­nen de orga­ni­sa­tie. Een AI Code of Con­duct draagt daar­mee zowel bij aan ver­ant­woord gebruik van AI als het bevor­de­ren van AI-gelet­terd­heid bin­nen de orga­ni­sa­tie – een ver­plich­ting uit de AI Act.

Heeft u vra­gen over de imple­men­ta­tie van de AI Act, con­trac­te­ren met een aan­bie­der van AI-sys­te­men of het opstel­len van een AI Code of Con­duct? HVG Law helpt u graag. Neem vrij­blij­vend con­tact met ons op om te bespre­ken hoe wij uw orga­ni­sa­tie kun­nen onder­steu­nen.