TwinLadder logoTwinLadder
TwinLadder
TwinLadder logoTwinLadder
Back to Insights

EU AI Act

1. diena AI birojā: domu eksperiments

Kas notiek, kad ES AI birojs — 140 cilvēku, 130 pienākumu — mēģina izmantot AI, lai izpildītu savu mandātu? Spekulatīvs stāstījums, kas izpēta rekursīvo paradoksu Eiropas AI regulējuma centrā. Nevis satīra. Diagnoze.

2026. gada 9. martsAlekss Blumentāls, Dibinātājs un vadītājs12 min read
1. diena AI birojā: domu eksperiments

Priekšvārds

Šis raksts ir daiļliteratūra. Neviens no aprakstītajiem notikumiem nav noticis. Cilvēki ir izdomāti. Scenāriji ir ekstrapolēti no Regulas (ES) 2024/1689 juridiskā teksta un publiski pieejamas informācijas par ES AI biroja mandātu, personālu un pienākumiem.

Tomēr viss, kas seko, ir loģiski neizbēgams. Pašas regulas arhitektūra rada zemāk aprakstītās cilpas. Vai tās izpaudīsies vienā dramatiskā pirmdienas rītā vai gadu lēnas institucionālas atklāšanas gaitā — tas ir laika, nevis būtības jautājums.


08:00 — Brīfings

Eiropas AI biroja jaunā direktore ierodas Avenue de Beaulieu 25 Briselē kāda pirmdienas rītā 2026. gada septembrī. Viņa amatā ir trīs nedēļas. Pirms tam viņa vadīja vidēja lieluma dalībvalsts tieslietu ministrijas digitālās transformācijas nodaļu. Viņa ir kompetenta, metodiska un bez ilūzijām par sava uzdevuma apmēru.

Uz viņas galda ir brīfinga dokuments. Tas ir četrdesmit septiņas lappuses garš. Kopsavilkums ietilpst vienā.

AI birojam ir 130 identificēti pienākumi saskaņā ar AI regulu. Tie iedalās četrās kategorijās:

  • 39 pārvaldības uzdevumi — AI padomes sekretariāta izveidošana, zinātniskā ekspertu grupas iecelšana, regulatīvo smilškasšu izveide, augsta riska sistēmu ES datubāzes uzturēšana, koordinācija ar 27 valstu tirgus uzraudzības iestādēm
  • 39 sekundārie tiesību akti — deleģētie akti, īstenošanas akti, vadlīnijas, veidnes, prakses kodeksi, standartizācijas pieprasījumi, katram ar savu konsultāciju procesu, ieinteresēto pušu iesaisti un juridisku pārskatīšanu
  • 34 izpildes kategorijas — vispārējas nozīmes AI sniedzēju monitorēšana, atbilstības novērtēšanas atkāpju izvērtēšana, kopīgu izmeklēšanu koordinēšana, nopietnu incidentu ziņojumu saņemšana, prakses kodeksu atbilstības novērtēšana
  • 18 izvērtēšanas uzdevumi — regulas efektivitātes pārskatīšana, sodu harmonizācijas novērtēšana, ziņošana Parlamentam, novērtēšana, vai aizliegto prakšu saraksts jāatjaunina

AI birojā ir aptuveni 140 darbinieku. Direktore veic aprēķinu. Tas ir nedaudz vairāk par vienu cilvēku uz katru pienākumu, pirms tiek ņemti vērā atvaļinājumi, slimības, administratīvā slodze un fakts, ka daudzi no šiem pienākumiem nav atsevišķi uzdevumi, bet nepārtraukti pienākumi, kas prasa pastāvīgu uzmanību gadu garumā.

Viņa pāriet uz kopsavilkuma otro lapu. Tajā ir pārejas komandas rekomendācija: izvietot AI sistēmas, lai palīdzētu dokumentu analīzē, monitorēšanā, ieinteresēto pušu komunikācijā un izvērtēšanā. Standarta digitālās pārvaldes prakse. Tāda veida rekomendācija, kas parādās katrā publiskā sektora modernizācijas ziņojumā kopš 2023. gada.

Direktore piekrīt. Nav alternatīvas. 140 cilvēki nevar manuāli izpildīt 130 pastāvīgus pienākumus 27 dalībvalstīs bez tehnoloģiskā atbalsta. Viņa autorizē iepirkuma procesu.

Viņa vēl neapzinās, ko ir iedarbinājusi.


09:00 — Iepirkums

Iepirkumu komanda — četri cilvēki, no kuriem divi sāka pagājušajā mēnesī — sāk definēt AI rīkus, kas birojam nepieciešami.

Dokumentu analīze — vispārējas nozīmes AI sniedzēju dokumentācijas pārskatīšana (C tabula, 7.–8. punkts), atbilstības novērtēšanas atkāpes (C tabula, 1. punkts) un gada pārskati no 27 dalībvalstīm. Desmitiem formātu, valodu, pilnīguma līmeņu. AI sistēma izvilktu atbilstības rādītājus, atzīmētu neatbilstības, novirzītu dokumentus pareizajam recenzentam.

Monitorēšana — vispārējas nozīmes AI sniedzēju pienākumu izsekošana (C tabula, 8.–14. punkts), prakses kodeksu ieviešana (C tabula, 13. punkts) un publicēto sistēmiskā riska modeļu saraksta uzturēšana (C tabula, 6. punkts). Monitorēšanas sistēma apkopotu datu plūsmas no 27 valstu iestādēm, atzīmētu anomālijas, brīdinātu darbiniekus par neatbilstības modeļiem.

Ieinteresēto pušu komunikācija — padomdevēju foruma, zinātniskā ekspertu grupas, AI padomes pārvaldīšana, publiskās konsultācijas par visiem 17 deleģētajiem un īstenošanas aktiem un vienota informācijas platforma visiem operatoriem. 27 dalībvalstīs. 24 oficiālajās valodās.

Izvērtēšana — AI regulas efektivitātes novērtēšana 27 sodu režīmos, smilškašu rezultātos un izpildes darbībās, pēc tam ziņojums Parlamentam (D tabula, visi 18 punkti).

Komanda sagatavo specifikācijas. Standarta publiskā sektora iepirkums. Komandas vadītājs paraksta specifikāciju dokumentu un nosūta to atbilstības speciālistei.

Šeit diena sāk liekt.


10:30 — Klasifikācija

Atbilstības speciāliste ir juriste, kas pārcēlās no DG JUST. Viņa divus gadus ir lasījusi AI regulu. Viņa atver iepirkuma specifikācijas un sāk rutīnas novērtējumu.

Katrs no piedāvātajiem rīkiem ir AI sistēma 3. panta 1. punkta nozīmē. AI birojs tos izvietēs. AI biroja darbinieki tos darbinās. Tas padara AI biroju par izvietotāju saskaņā ar 3. panta 4. punktu.

  1. pants ir piemērojams. AI birojam jānodrošina, cik vien iespējams, pietiekams AI pratības līmenis tiem darbiniekiem, kas iesaistīti šo AI sistēmu darbībā un lietošanā.

Viņa to atzīmē. Standarta pienākums. Katrs izvietotājs Eiropā saskaras ar to pašu prasību. Viņa pāriet pie klasifikācijas analīzes.

Dokumentu analīzes sistēma. Tā pārskata vispārējas nozīmes AI sniedzēju tehnisko dokumentāciju un atzīmē, vai tā atbilst atbilstības sliekšņiem. Tā novērtē rezultātus. Viņa pārbauda III pielikumu. 3.(b) apgabals: AI sistēmas, kas paredzētas mācību rezultātu novērtēšanai. Nē — tā ir izglītība. Bet 8.(a) apgabals: AI sistēmas, kas paredzētas palīdzēt valsts iestādēm novērtēt pierādījumu ticamību. Tuvāk. Viņa konsultējas ar vadlīnijām, ko pats birojs publicēja saskaņā ar B tabulu, 18. punktu. Piemēri nav gluži atbilstoši. Viņa atzīmē: sistēma, kas palīdz AI birojam novērtēt atbilstību, pati var prasīt atbilstības novērtējumu.

Monitorēšanas sistēma. Tā apkopo datus par organizācijām un atzīmē neatbilstības modeļus. Tā profilē organizācijas, pamatojoties uz to uzvedību, dokumentācijas kvalitāti un incidentu vēsturi. Viņa pārbauda 6. panta 3. punktu: jebkura sistēma, kas veic fizisko personu profilēšanu, vienmēr ir augsta riska, neatkarīgi no atkāpēm. Monitorēšanas sistēma profilē organizācijas, nevis fiziskās personas. Bet šīs organizācijas pārstāv fiziskās personas — norādītās kontaktpersonas, atbildīgie speciālisti, atbilstības deklarāciju parakstītāji. Ja sistēma sasaista atbilstības riska vērtējumus ar identificējamām personām — un kā tā nevarētu, ņemot vērā, ka AI regula piešķir personisku atbildību pilnvarotajiem pārstāvjiem — tad tā profilē fiziskās personas.

Viņa noliek pildspalvu. Monitorēšanas sistēma, ko AI birojs izmantotu, lai izsekotu neatbilstīgos izvietotājus, pati var būt augsta riska AI sistēma. Ir piemērojami III nodaļas pienākumi: atbilstības novērtējums, cilvēka pārraudzība, žurnālēšana, pamattiesību ietekmes novērtējums un — kritiski — 4. panta pratība darbiniekiem, kas to darbina.

Izvērtēšanas sistēma. Šī liek viņai apstāties visilgāk. AI birojam jānovērtē pati AI regula — vai tās noteikumi ir efektīvi, vai tās klasifikācijas sistēma uztver pareizos riskus, vai tās sodi ir samērīgi. D tabulas 14. punkts prasa šo novērtēšanu līdz 2029. gada augustam. Ja birojs izvietot AI sistēmu, lai analizētu izpildes datus un ģenerētu izvērtēšanas ziņojumus, šī sistēma veic novērtējumus par regulatīvo ietvaru, kas pārvalda AI sistēmas. Ieskaitot pašu sevi.

Viņa uzraksta vienu rindu savā novērtējumā: "Izvērtēšanas rīks ir pakļauts regulai, ko tas izvērtē."


12:00 — Apmācības problēma

Atbilstības speciālistes sākotnējais novērtējums nonāk pie personāla un apmācības vadītāja. Viņš to izlasa un saprot tūlītējo implikāciju: pirms AI birojs var izvietot jebkuru no šiem rīkiem, tam jānodrošina AI pratība visiem 140 darbiniekiem. Nevis vispārīga AI izpratne — 4. pants prasa pratību, kas kalibrēta pret "tehniskajām zināšanām, pieredzi, izglītību un apmācību, kontekstu, kādā AI sistēmas tiks izmantotas."

AI birojs nodarbina juristus, inženierus, politikas analītiķus, ekonomistus, komunikācijas speciālistus un administratīvo personālu. Viņu esošais AI zināšanu līmenis svārstās no doktorantūras līmeņa mašīnmācīšanās ekspertīzes līdz kompetentam, bet netechniskam politikas darbam. Viena apmācības programma neapmierinās 4. panta diferenciācijas prasību. Komisijas pašas 2025. gada maija jautājumi un atbildes apstiprināja, ka universāla pieeja "parasti netiek uzskatīta par pietiekamu."

Viņam nepieciešama adaptīvā apmācības platforma. Tāda, kas novērtē katra darbinieka sākotnējo zināšanu līmeni, nodrošina personalizētus mācību ceļus, pārbauda izpratni ar scenāriju uzdevumiem, kas atbilst katras personas faktiskajai lomai, un pastāvīgi atjauninās, rīkiem attīstoties.

Visefektīvākā sistēma tam ir AI vadīta adaptīvā mācību platforma.

Viņš sāk rakstīt specifikāciju. Tad apstājas.

AI apmācību platforma, kas vērtē mācību rezultātus, ietilpst III pielikuma 3.(b) apgabalā. Augsts risks. AI apmācību platforma, kas novērtē atbilstošu izglītības līmeni katrai personai, ietilpst 3.(c) apgabalā. Arī augsts risks. AI apmācību platforma, kas monitorē, vai darbinieki iesaistās materiālā un atzīmē tos, kas atpaliek — 3.(d) apgabals, ja tā konstatē aizliegtu uzvedību, 4.(b) apgabals, ja formulēts kā veiktspējas monitorēšana nodarbinātības kontekstā.

Un ja platforma izmanto jebkādu biometrisko signālu, lai noteiktu, vai mācību dalībnieks ir apjucis, neapmierināts vai neiesaistīts — vienīgā noderīgākā adaptīvās mācīšanās funkcija — tā nav tikai augsta riska. Tā ir aizliegta saskaņā ar 5. panta 1. punkta f) apakšpunktu. Emociju atpazīšana izglītības un darba kontekstos. Pilnībā aizliegta. No 2025. gada 2. februāra. Pirms sešpadsmit mēnešiem.

Viņš izlasa 5. panta 1. punkta f) apakšpunktu vēlreiz. Tad trešo reizi.

Birojs, kas izpilda aizliegumu pret emociju atpazīšanu darba apmācībās, nevar izmantot emociju atpazīšanu savās darba apmācībās.

Tas, viņš atzīst, ir pilnīgi konsekventi. Regula neatbrīvo savus pašu izpildītājus. Tai nevajadzētu. Ja aizliegums ir pamatots — un likumdošanas pamatojums 44. apsvērumā skaidri izskaidro, kāpēc tas ir — tad tas attiecas uz Eiropas Komisijas darbiniekiem tieši tāpat kā uz visiem citiem.

Bet sekas ir tādas, ka AI birojam jāveido AI pratība 140 cilvēkiem, ar dažādiem tehniskajiem pamatiem, vairākām sarežģītām AI sistēmām, izmantojot apmācības metodes, kas ir kategoriski mazāk efektīvas nekā AI vadītās metodes, kas pieejamas jebkurai privātā sektora organizācijai, kas gatava uzņemties atbilstības slogu. Un AI birojs nevar uzņemties atbilstības slogu, jo tā pašas apmācības platformas augsta riska klasifikācija radītu pienākumus, kurus tā 140 darbiniekiem — tiem pašiem 140 darbiniekiem, kuriem vajadzīga apmācība — būtu jāpārvalda.

Apmācība ir paredzēta rīkiem. Rīki ietver apmācību platformu. Apmācību platformai nepieciešama apmācība par apmācību platformu.

Viņš uzzīmē apli savā piezīmju blokā un skatās uz to.


14:00 — Bezgalīgā cilpa

Atbilstības speciāliste, personāla vadītājs, iepirkumu komandas vadītājs un divi vecākie politikas analītiķi pulcējas konferenču telpā 4.12. Kāds ir atnesis tāfeli.

Atbilstības speciāliste prezentē savu klasifikācijas analīzi. Personāla vadītājs izskaidro apmācības problēmu. Iepirkumu vadītājs atzīmē, ka monitorēšanas sistēmas izveides termiņam bija paredzētas astoņas nedēļas.

Jaunākā analītiķe — viņa pievienojās no kādas dalībvalsts digitālās aģentūras pirms diviem mēnešiem — paņem marķieri un sāk zīmēt uz tāfeles.

Viņa uzzīmē kastīti: 4. pants prasa pratību.

Bulta: pratība prasa apmācību.

Vēl viena kastīte: Apmācības AI ir augsts risks.

Bulta: augsts risks prasa III nodaļas atbilstību.

Vēl viena kastīte: III nodaļa prasa cilvēka pārraudzību.

Bulta: cilvēka pārraudzībai vajadzīga pratība.

Vēl viena kastīte: Pratībai vajadzīga apmācība.

Viņa velk bultu atpakaļ uz pirmo kastīti.

4. panta bezgalīgā cilpa — cirkulāra atkarība bez izejas nosacījuma

Telpā ir kluss vienpadsmit sekundes. Kāds vēlāk man stāstīja, ka tas šķita daudz ilgāk.

"Šī ir regula, ko mēs uzrakstījām," saka atbilstības speciāliste.

"Izstrādājām," labo vecākais politikas analītiķis. "Likumdevēji to uzrakstīja. Mēs to ieviešam."

"Atšķirība," saka jaunākā analītiķe, joprojām turot marķieri, "nemaina ģeometriju."

Viņai ir taisnība. Nemaina.

Cilpa nav ieviešanas kļūda. Tā ir juridiskās arhitektūras strukturāla īpašība. 4. pants attiecas uz visām AI sistēmām bez izņēmuma. III pielikums klasificē izglītības un apmācības AI kā augstu risku bez atbrīvojuma atbilstības mērķu izvietojumiem. 5. pants aizliedz emociju atpazīšanu darba apmācībās bez atbrīvojuma apmācībai, kas nepieciešama, lai ievērotu regulu, kurā ietilpst šis aizliegums. 6. panta 3. punkta atkāpes tiek atceltas ar profilēšanas klauzulu: jebkura sistēma, kas profilē fiziskās personas, paliek augsta riska neatkarīgi no atkāpēm.

Katra izeja no cilpas ved atpakaļ tajā.

Jaunākā analītiķe pievieno otru cilpu uz tāfeles. Monitorēšanas sistēma, kas izseko, vai izvietotāji ievēro AI regulu, pati ir pakļauta AI regulai. AI birojam jāmonitorē sava pati monitorēšanas sistēma. Tam jānodrošina savu pašu atbilstības rīku atbilstība. Tam jāpārrauga savi pašu pārraudzības mehānismi.

Viņa pievieno trešo cilpu. Prakses kodeksi, kas AI birojam jāizstrādā (B tabula, 30.–31. punkts), tiks izstrādāti ar AI palīdzību — jo 140 cilvēki nevar sagatavot 39 sekundāros tiesību aktus bez tā. AI sistēmas, kas izmantotas prakses kodeksu izstrādei par AI sistēmām, pašas ir pakļautas šiem prakses kodeksiem. Izstrādes rīkam jāatbilst kodeksam, ko tas palīdz izstrādāt, bet kodekss nepastāv, kamēr rīks nav pabeidzis to izstrādāt.

Trīs cilpas uz tāfeles. Trīs viena un tā paša strukturālā modeļa gadījumi. Regula pieņem nodalījumu starp regulatoru un regulēto, starp atbilstības rīku un atbilstības pienākumu, starp apmācības sistēmu un apmācības prasību. Pasaulē, kur AI ir visur, šis nodalījums neiztur.

Trīs savstarpēji saistītās cilpas — Apmācība, Monitorēšana un Izstrāde — bez izejas nosacījuma

"Cik no mūsu 130 pienākumiem," jautā direktore, kas klausījusies no durvju ailes, "mēs varam izpildīt, neizmantojot AI?"

Telpa veic vēl vienu aprēķinu. Konsensuss ir aptuveni pie četrdesmit. Vienkāršie administratīvie uzdevumi — sarakstu publicēšana, datubāzu uzturēšana, paziņojumu saņemšana. Viss, kas prasa analīzi, monitorēšanu, izvērtēšanu vai komunikāciju mērogā 27 dalībvalstīs, prasa tehnoloģisku palīdzību, kas 2026. gadā nozīmē AI.

Deviņdesmit no 130 pienākumiem faktiski prasa AI rīkus. Katrs AI rīks aktivizē 4. pantu. 4. panta atbilstība tādā mērogā un specifiskumā, kādu regula prasa, prasa AI. Kas aktivizē 4. pantu.

"Mēs esam," saka vecākais politikas analītiķis, "izvietotājs, kuram regula tika rakstīta. Un mēs nevaram izvietot."


15:30 — Izvērtēšana

Pēcpusdienas sesija pievēršas D tabulai. Izvērtēšanas uzdevumiem.

D tabulas 14. punkts ir centrālais: līdz 2029. gada augustam AI birojam jānovērtē "vajadzība grozīt šo regulu" — izpētot pārraudzības sistēmu, ko tas darbina, atbilstības novērtēšanas iestādes, ko tas uzrauga, un valstu iestāžu resursus, ar kurām tas koordinējas. Divdesmit septiņas dalībvalstis. Simtiem atbilstības novērtēšanas iestāžu. Tūkstošiem augsta riska izvietojumu. Trīs gadi izpildes datu.

Lai to apstrādātu, birojs izvietot izvērtēšanas sistēmu. Jaunākā analītiķe pievieno ceturto cilpu uz tāfeles.

Izvērtēšanas sistēma analizē AI regulas efektivitāti. AI regula pārvalda izvērtēšanas sistēmu. Ja tā konstatē, ka klasifikācijas ietvars ir pārāk plašs — ka tas uztver atbilstības rīkus, kuriem nevajadzētu būt augsta riska — šis konstatējums grauj regulatīvo pamatu pašas izvērtēšanas sistēmas klasifikācijai. Ja tā konstatē, ka ietvars ir piemērots, tā apstiprina ierobežojumus savai pašas uzbūvei. Sistēmas darbības parametrus nosaka ietvars, ko tā izvērtē. Tas ir kā lūgt zivij novērtēt ūdens īpašības.

"Mēs varētu izmantot ne-AI izvērtēšanas metodoloģiju," kāds ierosina.

"Divdesmit septiņām dalībvalstīm, 34 izpildes kategorijām un trīs gadu datiem?" atbild ekonomists. "Ar kādu personālu?"

D tabulas 6. punkts padziļina cilpu. Līdz 2028. gada augustam birojam jānovērtē, vai III pielikuma augsta riska klasifikācijas saraksts jāgroza — tostarp 3. apgabals, klasifikācija, kas padara biroja pašu apmācības rīkus par augsta riska. Izvērtēšanas rezultāts nosaka pašas izvērtēšanas instrumentu regulatīvo statusu.

Jaunākajai analītiķei beidzas vieta uz tāfeles. Viņa nofotogrāfē savu zīmējumu. Piecas savstarpēji saistītas cilpas. Viņa pievieno parakstu: "Mūsu pārvaldītās regulas arhitektūra."


17:00 — Memorands

Direktore aizver savas kabineta durvis un atver tukšu dokumentu. Temats: "Strukturāls novērojums par 4. panta ieviešanu AI biroja darbības kontekstā."

Viņa raksta:

AI birojs ir identificējis rekursīvu atkarību AI regulas pienākumu struktūrā, kas izpaužas, kad ieviešanas iestāde pati izvietot AI sistēmas sava mandāta izpildei.

4. pants prasa AI pratību visiem izvietotājiem. Jēgpilnas pratības sasniegšana tādā specifiskumā, kādu prasa pašas regulas jautājumi un atbildes, nepieciešama AI vadīta adaptīvā apmācība. AI vadīta apmācība ir klasificēta kā augsts risks saskaņā ar III pielikuma 3. apgabalu. Augsta riska klasifikācija aktivizē III nodaļas pienākumus, tostarp cilvēka pārraudzību, kas savukārt prasa to AI pratību, ko apmācībai bija jānodrošina.

Šī rekursīvā struktūra nav unikāla AI birojam. Tā attiecas uz katru organizāciju Eiropā, kuras AI atbilstības pienākumi ir pietiekami lieli, lai prasītu AI vadītu pārvaldību. AI birojs ar to saskaras pirmais, jo tā pienākumu kopums ir lielākais regulatīvajā ekosistēmā: 130 pienākumi pārvaldībā, likumdošanā, izpildē un izvērtēšanā.

Novērojums neliecina par nolūka kļūdu. Regulas mērķis — ka cilvēki, kas lieto AI, to saprot — ir pareizs un nepieciešams. Novērojums norāda uz strukturālu plaisu starp regulas arhitektūru un AI izvietošanas operatīvo realitāti institucionālā mērogā.

Viņa apsver, ko ierosināt. Trīs izmaiņas ir cirkulējušas politikas literatūrā. Viņa tās ir lasījusi dažādās formās no dažādiem avotiem. Tās saplūst, jo loģika saplūst.

Trīs strukturāli grozījumi atrisinātu rekursīvo atkarību, vienlaikus saglabājot un stiprinot regulas mērķus:

Pirmkārt: ieviest "mācību izvietojuma" kategoriju. AI sistēmām, kas izvietotas galvenokārt kompetences attīstībai, apmācībai un atbilstības mērķiem, būtu jāpiemēro samērīgi pienākumi, vieglāki nekā AI sistēmām, kas izvietotas lēmumu pieņemšanas vai automatizācijas kontekstos. Nošķīrums ir funkcionāls, nevis tehnoloģisks. Apmācības sistēmai, kas veido cilvēka spējas, ir kategoriski atšķirīgs riska profils nekā atlases sistēmai, kas aizstāj cilvēka spriedumu. Regulai tas būtu jāatzīst.

Otrkārt: noteikt nepārtrauktu atbilstību, nevis novērtējumu noteiktā laika brīdī. AI pratību pret mainīgu tehnoloģisko horizontu nevar nodrošināt vienā brīdī. Regulai vajadzētu vērtēt, vai organizācijas uztur aktīvus, attīstošos kompetences mehānismus — nevis to, vai tās veica apmācību noteiktā datumā. Tas ļautu atbilstības rīkiem attīstīties līdzās tehnoloģijai, ko tie pārvalda, nekatram atjauninājumam neizsaucot jaunu atbilstības ciklu.

Treškārt: mērīt kompetences rezultātus, nevis atbilstības ieguldījumus. Ja regulatīvais mērķis ir, lai cilvēki saprot AI, novērtējumam jābūt par to, vai viņi to demonstrējami saprot — nevis par to, vai organizācija iegādājās apmācības programmu. Uz rezultātiem balstīts modelis pilnībā izšķīdina rekursīvo atkarību: nav svarīgi, vai organizācija izmantoja AI vai krītu un tāfeli, lai veidotu pratību. Svarīgi ir, vai cilvēki var demonstrēt kompetenci. Metode kļūst nesvarīga. Cilpa pazūd.

Viņa to pārlasa. Tas ir, viņa saprot, tas pats priekšlikumu kopums, ko viņa pagājušajā nedēļā atrada konsultāciju uzņēmuma pētniecības ziņojumā no Rīgas. Viņa to bija atzīmējusi kā pārdomātu, bet akadēmisku. Tagad viņa to redz citādi. Loģika ir tā pati, neatkarīgi no tā, vai jūs esat 50 cilvēku juridiskais birojs vai Eiropas AI birojs, jo strukturālā problēma ir tā pati.

Viņa saglabā memorandu. Tas iekļūs institucionālajā procesā. Tas var uzpeldēt 2029. gada izvērtēšanā. Varbūt arī ne.

Tāfele konferenču telpā 4.12 netiks nodzēsta trīs nedēļas. Darbinieki no citām nodaļām nāks to apskatīt. Daži pievienos savas cilpas.


Noslēgums

Šis domu eksperiments nav par ES AI biroju konkrēti. Var aizstāt jebkuru iestādi. Valsts tirgus uzraudzības iestāde, kas mēģina monitorēt AI izvietojumus savā jurisdikcijā. Liela slimnīcu sistēma, kas izvietot AI diagnostiku, vienlaikus apmācot savus klīnicistus AI pratībā. Starptautiska banka, kas izmanto AI, lai ievērotu AI regulas divpadsmit dalībvalstu ieviešanās. Rekursīvā struktūra ir iestrādāta regulā, nevis konkrētā izvietotājā.

AI regula ir vērienīgākais tehnoloģiju regulējums, kāds jebkad mēģināts. Tās tvērums, specifiskums un gatavība aizliegt, nevis tikai ierobežot, to atšķir no visiem priekštečiem. 4. panta pratības pienākums, manuprāt, ir tās vissvarīgākais noteikums — ar lielākām sekām nekā aizliegtās prakses 5. pantā, ar plašāku tvērienu nekā augsta riska prasības III nodaļā. Ja cilvēki nesaprot AI, nekas cits regulā nedarbojas.

Bet desmitgades svarīgākā regula satur uzbūves trūkumu, ko tās pašas ieviešanas iestāde nevar atrisināt ar pieejamajiem rīkiem. Regula prasa AI pratību. Visefektīvākais ceļš uz AI pratību ved caur AI. Regula klasificē šo ceļu kā augstu risku. Augsta riska pienākumi prasa pratību. Cilpai nav izejas nosacījuma.

Tā nav kritika. Tā ir diagnoze. Un kā jebkura diagnoze, tas ir pirmais solis pretī ārstēšanai.

Ārstēšana nav sarežģīta. Mācību izvietojuma kategorija. Nepārtraukta atbilstība. Uz rezultātiem balstīta mērīšana. Trīs grozījumi, kas saglabā regulas nolūku, vienlaikus izšķīdinot rekursīvo struktūru, kas to apdraud.

Jautājums ir, vai iestāde, kas atbild par regulu, var atpazīt rekursiju, stāvot tās iekšpusē. Pēc šī domu eksperimenta pierādījumiem atbilde ir: jā, bet tikai dienā, kad viņi paši mēģina lietot AI. Tikai tad, kad "izvietotāja pienākumu" abstrakcija kļūst par konkrētu realitāti — 140 cilvēki, 130 pienākumi un tāfele, pilna ar cilpām, kas ved nekurieni.

Šī diena tuvojas. Aritmētika to garantē.


Sources

  1. Kai Zenner, "Responsibilities of European Commission (AI Office)" — Comprehensive enumeration of 130 AI Office responsibilities across four tables: governance (39), secondary legislation (39), enforcement (34), evaluation (18). Published 22 August 2024. https://artificialintelligenceact.eu/responsibilities-of-european-commission-ai-office/

  2. Regulation (EU) 2024/1689, Article 4 — AI Literacy obligation. Single-sentence provision requiring providers and deployers to ensure sufficient AI literacy of staff, applicable from 2 February 2025 with no size or sector exemption. https://artificialintelligenceact.eu/article/4/

  3. Regulation (EU) 2024/1689, Annex III, Area 3 — High-risk classification for AI in education and vocational training: determining admission, evaluating learning outcomes, assessing appropriate education level, monitoring behaviour during tests. https://artificialintelligenceact.eu/annex/3/

  4. Regulation (EU) 2024/1689, Article 5(1)(f) — Prohibition of emotion recognition AI systems in education and workplace contexts. No exemption for compliance or training purposes. https://artificialintelligenceact.eu/article/5/

  5. Regulation (EU) 2024/1689, Article 6(3) — Derogation conditions for Annex III systems, with critical override: profiling of natural persons always remains high-risk regardless of derogations. https://artificialintelligenceact.eu/article/6/

  6. Regulation (EU) 2024/1689, Article 26 — Obligations for deployers of high-risk AI systems: human oversight, data quality, monitoring, logging, notification, and fundamental rights impact assessment. https://artificialintelligenceact.eu/article/26/

  7. European Commission, AI Literacy — Questions & Answers (May 2025) — Clarified that directing staff to user manuals is "generally not considered sufficient" and that one-size-fits-all training fails the differentiation requirement. https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers

  8. European Commission Decision of 24 January 2024 establishing the European AI Office — Articles 2, 4, 5, 7 establishing the AI Office's mandate, cooperation structures, and relationship with other Commission services. https://digital-strategy.ec.europa.eu/en/policies/ai-office

  9. Regulation (EU) 2024/1689, Recital 20 — Legislative intent for AI literacy: equipping people "with the necessary notions to make informed decisions regarding AI systems." https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689

  10. Regulation (EU) 2024/1689, Recital 44 — Rationale for prohibition of emotion recognition in workplace and education settings: risks to fundamental rights including dignity and non-discrimination. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689

  11. Twin Ladder Assessment Maturity Model v1.0 — Six-pillar framework for AI literacy and competence assessment, proposing outcome-based measurement and continuous compliance as structural solutions to the Article 4 paradox. CC BY-SA 4.0. https://twinladder.ai/en/research/assessment-maturity-model

  12. "The Literacy Paradox: How Article 4 May Prevent the Competence It Demands" — TwinLadder Research, March 2026. Full analysis of the infinite regress, competence degradation paradox, and classification trap in Article 4. https://twinladder.ai/en/research/article-4-literacy-paradox