Sešu gadu atskaite: katrs EU AI akta termiņš, kas jūsu organizācijai jāzina
Alekss Blumentāls — Twin Ladder
Lielākā daļa atbilstības komandu gatavojas EU AI aktam. Tām vajadzētu jau ievērot to. 4. pants un 5. pants kļuva izpildāmi 2025. gada 2. februārī. Ja jūs to lasāt 2026. gada martā, jūs jau trīspadsmit mēnešus kavējat ar savu pirmo pienākumu.
EU AI akts nav viens regulējums, kas stājas spēkā vienā datumā. Tā ir sešu gadu ieviešanas programma ar deviņiem atsevišķiem termiņiem, no kuriem katrs aktivizē dažādus pienākumus dažādiem dalībniekiem. Laika grafiks stiepjas no 2024. gada augusta līdz 2030. gada decembrim — garāks par lielākās daļas organizāciju stratēģiskās plānošanas horizontiem.
Tam ir nozīme, jo atbilstības saruna lielākajā daļā valžu sēžu vēl joprojām tiek formulēta ap "kad AI akts ieradīsies." Tas jau ir ieradies. Jautājums tagad ir — kuri pienākumi jau ir nokavēti, kuri ir nenovēršami un kuriem nepieciešama daudzgadu sagatavošanās, kam vajadzēja sākties vakar.
Lūk, katrs termiņš, ko tas prasa, un ko tas nozīmē praksē.
Kas jau ir noticis
2024. gada 12. jūlijs — Publicēšana
AI akts tika publicēts Eiropas Savienības Oficiālajā Vēstnesī kā Regula (ES) 2024/1689. No šī brīža tas kļuva par saistošu likumu.
2024. gada 1. augusts — Spēkā stāšanās
Regula formāli stājās spēkā divdesmit dienas pēc publicēšanas. Nekādi būtiski pienākumi vēl nebija piemērojami, taču sāka tikšķēt pulkstenis katram pakāpeniskajam termiņam. AI birojs Eiropas Komisijā sāka savu izveidi. Standartu izstrādes organizācijas paātrināja darbu.
2025. gada 2. februāris — Pirmie pienākumi (jau spēkā)
Šis ir termiņš, ko lielākā daļa organizāciju ir nokavējušas.
Kļuva piemērojamas I un II nodaļas. Divi panti tagad ir juridiski saistoši:
4. pants — AI pratība. Katram AI sistēmu nodrošinātājam un ieviesējam jānodrošina, ka to personālam un citām personām, kas nodarbojas ar AI sistēmu darbināšanu un lietošanu, ir pietiekams AI pratības līmenis. Teksts ir apzināti plašs: tas aptver tehnisko izpratni, risku un ierobežojumu apzināšanos, kā arī zināšanas par kontekstu, kādā sistēma darbojas. Tas neattiecas tikai uz IT departamentiem. Tas attiecas uz katru funkciju, kas saskaras ar AI — juridisko, HR, finanšu, operāciju, iepirkumu.
"Pietiekams" nav definēts ar sertifikāciju vai apmācību stundu skaitu. Tas tiek kalibrēts pēc konteksta: lomas, tehnoloģijas un iesaistītajiem riskiem. Juristam, kas lieto AI izpētes rīku, pietiekama pratība atšķiras no zvanu centra operatora, kas lieto čatbotu. Taču abiem tā ir nepieciešama, un abi ir pakļauti izpildei.
5. pants — Aizliegtās AI prakses. Septiņas AI sistēmu kategorijas ir pilnībā aizliegtas bez pārejas perioda un bez atvieglojumiem:
- Subliminālās, manipulatīvās vai maldinošās tehnikas, kas rada būtisku kaitējumu
- Neaizsargātības izmantošana vecuma, invaliditātes vai sociālekonomiskās situācijas dēļ
- Sociālā punktu skaitīšana, ko veic valsts iestādes
- Prognozējošā policijas darbība, kas balstīta tikai uz profilēšanu
- Neatlasīta sejas attēlu vākšana atpazīšanas datubāzēm
- Emociju atpazīšana darba vietās un izglītības iestādēs (ar šauriem izņēmumiem)
- Reāllaika attālināta biometriskā identifikācija sabiedriskās vietās, ko veic tiesībsargājošās iestādes (ar šauriem izņēmumiem)
Ja jūsu organizācija darbina jebkuru sistēmu šajās kategorijās, tā jau pārkāpj likumu. Nav gaidāma atbilstības datuma.
Kas notiek tagad
2025. gada 2. maijs — GPAI prakses kodeksi
AI birojam līdz šim datumam bija jāpabeidz prakses kodeksi vispārēja pielietojuma AI (GPAI) modeļiem, sniedzot pamata modeļu un lielo valodu modeļu nodrošinātājiem praktisku vadību par viņu pienākumiem. GPAI prakses kodeksa galīgā versija tika publicēta 2025. gada 10. jūlijā.
Dalībvalstīm arī jāidentificē un publiski jāuzskaitā iestādes un organizācijas, kas atbildīgas par pamattiesību aizsardzību, un jāpaziņo par tām Komisijai un citām dalībvalstīm.
2025. gada 2. augusts — GPAI pienākumi un pārvaldība
Šis ir divpadsmit mēnešu atzīme. Aktivizējas vairāki lieli ietvari:
Vispārēja pielietojuma AI modeļu pienākumi (V nodaļa, 51.–56. pants). Visiem GPAI modeļu nodrošinātājiem jāuztur tehniskā dokumentācija, jāsniedz informācija lejupējiem nodrošinātājiem, jāievēro autortiesību likums, tostarp atteikšanās mehānismi, un jāpublicē pietiekami detalizēts kopsavilkums par apmācības datiem.
GPAI modeļu nodrošinātājiem ar sistēmisku risku — pašlaik definēts kā modeļi, kas apmācīti ar vairāk nekā 10^25 FLOP skaitļošanas jaudas — ir papildu pienākumi: modeļu novērtējumi, sistēmiskā riska novērtēšana un mazināšana, pretinieka testēšana (red-teaming), kiberdrošības pasākumi, nopietnu incidentu ziņošana un enerģijas patēriņa atklāšana.
Pārvaldības struktūra (VII nodaļa, 64.–70. pants). Pilnai pārvaldības arhitektūrai jābūt operatīvai: AI birojs, AI padome (dalībvalstu pārstāvji), neatkarīgu ekspertu Zinātniskā padome un Konsultatīvais forums (ieinteresēto pušu organizācija).
Sodu sistēmas (XII nodaļa, 99.–100. pants). Dalībvalstīm jāpieņem nacionālie noteikumi par sodiem. Taču sodi konkrēti GPAI modeļu nodrošinātājiem (101. pants) vēl nepiemērojas — tas nāk vēlāk.
Nacionālās iestādes. Dalībvalstīm jāieceļ un jāpaziņo Komisijai savas nacionālās kompetentās iestādes.
Pārejas noteikums: GPAI modeļi, kas laisti tirgū pirms 2025. gada 2. augusta, saņem pārejas periodu — nodrošinātājiem jānodrošina atbilstība līdz 2027. gada 2. augustam.
Kas nāk
2026. gada 2. februāris — Komisijas vadlīnijas (nokavētas)
Komisijai bija jāsniedz vadlīnijas, precizējot 6. panta praktisko ieviešanu — noteikumus augsta riska AI sistēmu klasificēšanai — tostarp visaptverošu sarakstu ar praktiskiem augsta un zema riska lietošanas piemēriem.
Komisija nokavēja šo termiņu. Kā ziņoja IAPP, galīgais vadlīniju projekts bija gaidāms līdz 2026. gada februāra beigām, taču rakstīšanas brīdī nebija publicēts.
Tam ir milzīga nozīme. Organizācijas, kas mēģina noteikt, vai to AI sistēmas kvalificējas kā augsta riska saskaņā ar III pielikumu, darbojas bez klasifikācijas vadlīnijām, kurām vajadzēja palīdzēt tām sagatavoties 2026. gada augusta izpildes datumam. Sagatavošanās logs sarūk, kamēr vadlīnijas joprojām nav publicētas.
2026. gada 2. augusts — Vispārējais piemērošanas datums
Šis ir kraujas mala.
Lielākā daļa AI akta pienākumu stājas spēkā šajā datumā. Katrai organizācijai, kas izstrādā, ievieš vai izplata AI sistēmas ES, jābūt atbilstošai. Lūk, kas aktivizējas:
Augsta riska AI sistēmas (III pielikums). AI sistēmas astoņās noteiktās jomās kļūst pakļautas pilnam augsta riska atbilstības režīmam. Jomas ir: biometrija, kritiskā infrastruktūra, izglītība un profesionālā apmācība, nodarbinātība un darbinieku vadība, piekļuve būtiskiem pakalpojumiem, tiesībsargāšana, migrācija un robežkontrole, un tiesvedības administrēšana. Katrai nodrošinātājiem jāievieš:
- Risku vadība (9. pants) — nepārtraukts, dokumentēts process visā sistēmas dzīves ciklā
- Datu pārvaldība (10. pants) — apmācības un testēšanas datiem jāatbilst kvalitātes kritērijiem
- Tehniskā dokumentācija (11. pants) — sagatavota pirms sistēmas laišanas tirgū
- Ierakstu uzturēšana (12. pants) — automātiska notikumu reģistrēšana risku identificēšanai
- Caurskatāmība (13. pants) — skaidra informācija sniegta ieviesējiem
- Cilvēka pārraudzība (14. pants) — iestrādāta sistēmā, nevis pieskrūvēta klāt
- Precizitāte, noturība un kiberdrošība (15. pants)
Ieviesējiem ir savi pienākumi saskaņā ar 26. pantu: ievērot nodrošinātāja lietošanas instrukcijas, norīkot kompetentus cilvēku pārraudzītājus, uzraudzīt darbību, ziņot par incidentiem un — valsts iestādēm un noteiktām privātām struktūrām — veikt pamattiesību ietekmes novērtējumus (27. pants) pirms ieviešanas.
Caurskatāmības pienākumi (50. pants). AI sistēmām, kas mijiedarbojas ar cilvēkiem, jāpadara skaidrs, ka persona mijiedarbojas ar AI. Sintētiskā satura (audio, attēlu, video, teksta) nodrošinātājiem jānodrošina, ka rezultāti ir mašīnlasāmi kā mākslīgi ģenerēti. Emociju atpazīšanas un deepfake sistēmu ieviesējiem jāinformē skartās personas.
Regulatīvās smilškastes. Katrai dalībvalstij līdz šim datumam jābūt vismaz vienai darbojošai AI regulatīvajai smilškastei.
Pilna izpilde un sodi. Sodu struktūra kļūst izpildāma:
| Pārkāpums | Maksimālais sods |
|---|---|
| Aizliegtās prakses (5. pants) | €35 miljoni vai 7% no globālā gada apgrozījuma |
| Augsta riska neatbilstība | €15 miljoni vai 3% no globālā gada apgrozījuma |
| Maldinoša informācija iestādēm | €7,5 miljoni vai 1% no globālā gada apgrozījuma |
MVU un jaunuzņēmumi saņem proporcionālus samazinājumus. 101. pants — sodi GPAI modeļu nodrošinātājiem — arī kļūst izpildāms šajā brīdī.
2027. gada 2. augusts — Drošības komponentes regulētos produktos
Trīsdesmit sešu mēnešu atzīme paplašina augsta riska klasifikāciju uz AI sistēmām, kas tiek izmantotas kā drošības komponentes produktos, uz kuriem attiecas ES harmonizētā likumdošana, kas uzskaitīta I pielikumā. Tas aptver AI, kas iestrādāts:
- Medicīnas ierīcēs un in-vitro diagnostikā
- Mašīnās un iekārtās
- Rotaļlietās
- Liftos un spiedieniekārtās
- Radioiekārtās
- Mehāniskajos transportlīdzekļos un piekabēs
- Civilās aviācijas sistēmās
- Jūras iekārtās
- Dzelzceļa savstarpējās izmantojamības sistēmās
- Individuālajā aizsardzības aprīkojumā
Šis ir arī termiņš GPAI modeļiem, kas bija tirgū pirms 2025. gada augusta — tiem līdz šim datumam jābūt pilnībā atbilstošiem.
Pēc 2027. gada 2. augusta AI akts ir pilnībā piemērojams visās kategorijās un riska līmeņos.
2030. gada 31. decembris — Pēdējais termiņš
Divām mantoto sistēmu kategorijām piešķirti pagarināti pārejas periodi:
Lielmēroga IT sistēmas, kas uzskaitītas X pielikumā — Savienības likumdošanas sistēmas brīvības, drošības un tiesiskuma jomā (Šengenas Informācijas sistēma, Vīzu informācijas sistēma, Eurodac, Ieceļošanas/Izceļošanas sistēma, ETIAS, ECRIS-TCN) — kas laistas tirgū pirms 2027. gada augusta, jāsasniedz pilna atbilstība līdz šim datumam.
Augsta riska AI sistēmas, ko izmanto valsts iestādes, kas ieviestas pirms 2026. gada augusta, arī jāveic pasākumi atbilstības nodrošināšanai līdz 2030. gada decembrim.
Laika grafiks vienā skatienā
| Datums | Kas notiek |
|---|---|
| 2024. g. 12. jūl. | Publicēts Oficiālajā Vēstnesī |
| 2024. g. 1. aug. | Stājas spēkā |
| 2025. g. 2. feb. | 4. pants (AI pratība) + 5. pants (aizliegtā AI) — jau izpildāms |
| 2025. g. 2. maijs | GPAI prakses kodeksi jāpabeidz |
| 2025. g. 2. aug. | GPAI pienākumi, pārvaldības struktūra, sodu sistēmas |
| 2026. g. 2. feb. | Komisijas augsta riska klasifikācijas vadlīnijas (termiņš nokavēts) |
| 2026. g. 2. aug. | Augsta riska pienākumi, caurskatāmība, ieviesēju pienākumi, pilna izpilde |
| 2027. g. 2. aug. | Drošības komponentes regulētos produktos, GPAI pārejas beigas |
| 2030. g. 31. dec. | Lielmēroga IT sistēmas + valsts iestāžu mantotās sistēmas |
Kompetences plaisa, par ko neviens nerunā
Lūk, neērtā aritmētika. 4. pants prasa AI pratību tagad. Augsta riska atbilstība prasa risku vadību, cilvēka pārraudzību un pamattiesību ietekmes novērtējumus līdz 2026. gada augustam. Jūs nevarat veikt jēgpilnu sistēmas risku novērtējumu, ko nesaprotat. Jūs nevarat nodrošināt cilvēka pārraudzību bez kompetences novērtēt, ko sistēma dara. Jūs nevarat novērtēt pamattiesību implikācijas, nesaprotot, kā AI apstrādā datus, kur ienāk aizspriedumi un kādi ir sistēmas kļūmju režīmi.
AI pratība nav atsevišķa atbilstības darba plūsma. Tā ir priekšnoteikums katram citam pienākumam aktā. Organizācijas, kas uztver 4. pantu kā apmācību atzīmējamu rūtiņu un 9.–15. pantu kā atsevišķu projektu, sāpīgi atklās, ka abi ir neatdalāmi.
Komisija nokavēja pati savu termiņu klasifikācijas vadlīniju publicēšanai. Šī kavēšanās nedod nevienam vairāk laika. Tā dod mazāku noteiktību par to, ko nozīmē augsts risks, kamēr pulkstenis ievērot augsta riska prasības turpina tikšķēt.
Ko darīt tieši tagad
Ja neesat darījuši neko: Sāciet ar AI sistēmu inventāru. Uzskaitiet katru AI sistēmu, ko jūsu organizācija lieto — ne tikai tās, ko IT iepirka, bet arī tās, ko atsevišķas komandas abonēja. Daudzas organizācijas atklāj, ka tām ir trīs līdz piecas reizes vairāk AI ieviešanu, nekā to IT departaments zina.
Ja jums ir inventārs: Klasificējiet katru sistēmu pret III pielikuma kategorijām. Atlases AI, kredītpunktu skaitīšana, izglītības novērtēšanas rīki — ja tas skar jebkuru no astoņām augsta riska jomām, tas, visticamāk, ir augsta riska. Atcerieties: saskaņā ar 6. panta 3. punktu jebkura AI sistēma, kas veic fizisko personu profilēšanu, vienmēr tiek klasificēta kā augsta riska neatkarīgi no citām atkāpēm.
Ja esat klasificējuši savas sistēmas: Veidojiet savu 4. panta pratības programmu tagad, kalibrētu pēc lomām. Cilvēkiem, kas operē augsta riska sistēmas, nepieciešama dziļāka kompetence nekā tiem, kas lieto zema riska rīkus. Taču visiem ir nepieciešama bāzlīnija.
Ja jau veidojat pratību: Sāciet savu risku vadības dokumentēšanu (9. pants), piegādātāju pienādības pārbaudi tehniskajai dokumentācijai (11. pants) un cilvēka pārraudzības protokolus (14. pants). Līdz 2026. gada augustam ir septiņpadsmit mēneši. Organizācijām ar sarežģītām AI ieviešanām vairākās funkcijās tas nav daudz laika.
Sešu gadu atskaite sākās 2024. gada augustā. Gandrīz divi no šiem gadiem jau ir aiz muguras. Regulējums negaidīs, kamēr jūsu gatavības programma pieķersies.
Sources
-
EU AI Act Official Text — Regulation (EU) 2024/1689, published in the Official Journal of the European Union, 12 July 2024. eur-lex.europa.eu
-
Article 113 — Entry into Force and Application — Timeline provisions of the EU AI Act. artificialintelligenceact.eu
-
Implementation Timeline — EU Artificial Intelligence Act resource with visual timeline. artificialintelligenceact.eu
-
IAPP — Commission Misses Deadline for AI Act Guidance on High-Risk Systems — Report on the missed February 2026 guidelines deadline. iapp.org
-
AI Act Service Desk — Timeline — European Commission's official implementation timeline resource. ai-act-service-desk.ec.europa.eu
-
Annex III — High-Risk AI Systems — Full list of high-risk AI system areas referred to in Article 6(2). artificialintelligenceact.eu

