TwinLadder logoTwinLadder
TwinLadder
TwinLadder logoTwinLadder
Back to Insights

EU AI Act

Jūsu CV atlases rīks ir augsta riska AI sistēma

Ja jūsu organizācija izmanto AI, lai filtrētu darba pieteikumus, jūs izvietojat augsta riska AI sistēmu saskaņā ar ES AI regulu. 6. panta 3. punkta profilēšanas klauzula izslēdz jebkādu iespējamu atbrīvojumu. Lūk, ko tas nozīmē pirms 2026. gada augusta.

2026. gada 9. martsAlekss Blumentāls, Dibinātājs un vadītājs8 min read
Jūsu CV atlases rīks ir augsta riska AI sistēma

Jūsu CV atlases rīks ir augsta riska AI sistēma

Autors: Alex Blumentals — Twin Ladder

Jūsu pieteikumu izsekošanas sistēma noraidīja 200 kandidātus pirms brokastīm. Neviens cilvēks tos neredzēja. Saskaņā ar ES AI regulu jūsu personāla nodaļa tikko darbināja augsta riska AI sistēmu — un vairāk nekā 65% lielo darba devēju dara tieši to pašu.

Lielākā daļa personāla vadītāju to neapzinās. Viņi uztver savu CV atlases rīku kā produktivitātes rīku, filtru, laika taupītāju. ES AI regula to uztver kā sistēmu, kas profilē fiziskās personas un izlemj, kam ir iespēja nopelnīt iztiku. Regulai ir taisnība.

Izpildes datums ir 2026. gada 2. augusts. Ja jūsu organizācija izmanto AI jebkurā personāla atlases posmā — atlasē, ranžēšanā, sarakstu veidošanā, atbilstības meklēšanā — šis raksts ir jūsu trauksmes signāls.


Ko likums patiesībā saka

ES AI regula iedala AI sistēmas riska kategorijās. Augstākā regulētā kategorija — augsts risks — ietver pilnu atbilstības režīmu: atbilstības novērtējumus, cilvēka pārraudzību, aizspriedumu monitorēšanu, incidentu ziņošanu, pamattiesību ietekmes novērtējumus.

Personāla atlases AI ietilpst tieši šajā kategorijā.

III pielikuma 4.(a) kategorija tieši norāda:

"AI sistēmas, kas paredzētas izmantošanai fizisko personu pieņemšanai darbā vai atlasei, jo īpaši mērķētu darba sludinājumu izvietošanai, darba pieteikumu analīzei un filtrēšanai un kandidātu novērtēšanai."

Šeit nav nekādas neskaidrības. Likumdevēji neapslēpa personāla atlasi zemsvītras piezīmē. Viņi to izvirzīja priekšplānā ar konkrētiem piemēriem. Darba pieteikumu filtrēšana ir nosaukta. Kandidātu novērtēšana ir nosaukta. Ja jūsu sistēma dara kādu no šīm lietām, jūs esat tvērumā.

Tas nav interpretācijas jautājums. Tas ir lasīšanas jautājums.


Atkāpju slazds

Šeit lielākā daļa atbilstības komandu kļūdās.

AI regulas 6. panta 3. punkts piedāvā atkāpes — veidus, kā III pielikumā uzskaitītās sistēmas var izvairīties no augsta riska klasifikācijas. Sistēma var izvairīties no marķējuma, ja tā veic tikai šauru procedurālu uzdevumu, ja tā uzlabo iepriekšējas cilvēka darbības rezultātu, ja tā konstatē lēmumu pieņemšanas modeļus, neaizstājot cilvēka novērtējumu, vai ja tā tikai sagatavo datus novērtējumam, ko veiks cilvēks.

Četras izejas. Personāla komandas un to piegādātāji mēģinās katru no tām.

"Mūsu rīks tikai ranžē kandidātus — cilvēks pieņem galīgo lēmumu."

"Tas tikai izceļ atslēgvārdus — tas neko neizlemj."

"Tas ir lēmumu atbalsta rīks, nevis lēmumu pieņemšanas rīks."

Neviens no šiem argumentiem neiztur 6. panta 3. punktu.

6. panta 3. punkts nosaka valodā, kas neatstāj vietu radošai juristu argumentācijai:

"Šā pielikuma III pielikumā minētā AI sistēma vienmēr tiek uzskatīta par augsta riska sistēmu, ja AI sistēma veic fizisku personu profilēšanu."

Vienmēr. Ne parasti. Ne vairumā gadījumu. Vienmēr.

Un CV atlase ir profilēšana. Pēc definīcijas. Sistēma ņem personas datus — izglītības vēsturi, darba pieredzi, prasmes, atrašanās vietu, dažreiz vecumu, dažreiz vārdu — un izmanto tos, lai ranžētu, vērtētu, kategorizētu vai filtrētu cilvēkus. Tā ir mācību grāmatas profilēšana saskaņā ar VDAR definīciju, ko iekļauj AI regula.

Brīdī, kad jūsu sistēma piešķir punktu skaitu, rangu vai jā/nē kandidātam, pamatojoties uz viņa personīgajām iezīmēm, katra atkāpe 6. panta 3. punktā iztvaikst.

Jūsu personāla atlases AI ir augsts risks. Punkts.


Kas notika citur

Ja juridiskais arguments šķiet abstrakts, tiesu prakse ir konkrēta.

Amazon, 2018. Amazon izveidoja iekšēju AI personāla atlases rīku, kas apmācīts uz desmit gadu CV datiem. Sistēma iemācījās, ka lielākā daļa veiksmīgi pieņemto darbinieku bija vīrieši — jo lielākā daļa tehnoloģiju nozarē pieņemto bija vīrieši — un sāka sistemātiski sodīt CV, kas saturēja vārdu "women's" (kā "women's chess club") vai kas uzrādīja sieviešu koledžas. Amazon atcēla rīku. Kaitējums bija mācība: AI, kas apmācīts uz neobjektīviem pieņemšanas datiem, reproducē neobjektīvus pieņemšanas lēmumus. Tā nav kļūda. Tā ir noklusējuma uzvedība.

iTutorGroup, 2023. ASV Vienlīdzīgu nodarbinātības iespēju komisija (EEOC) panāca izlīgumu ar iTutorGroup par 365 000 $, konstatējot, ka uzņēmuma automatizētā personāla atlases programmatūra noraidīja pretendentus pēc vecuma. Sievietes virs 55 un vīrieši virs 60 tika izfiltrēti. Ne ar cilvēka lēmumu. Ar sistēmu, ko neviens pietiekami rūpīgi neuzraudzīja. EEOC to nosauca, kā tas ir: algoritmiskā vecuma diskriminācija.

Workday, notiek. Lietā Mobley pret Workday melnādains pretendents, virs 40 gadiem, ar trauksmi un depresiju apgalvoja, ka Workday AI atlases rīki sistemātiski diskriminēja viņu rases, vecuma un invaliditātes dēļ vairāk nekā 100 darba pieteikumos, izmantojot šo platformu. 2025. gada maijā tiesa piešķīra nosacītu sertifikāciju kā valsts mēroga kolektīvai prasībai — potenciāli aptverot miljoniem darba pretendentu virs 40 gadiem. Lieta noteica, ka AI piegādātāji — ne tikai darba devēji — var tikt saukti pie atbildības kā nodarbinātības aģenti.

Tie nav hipotētiski riski. Tās ir lietas, kas jau notika, vājākos regulatīvos režīmos, pirms AI regula pastāvēja. Regula pastāv tieši tāpēc, ka šīs lietas notika.


Kas jums jāizdara pirms 2026. gada augusta

  1. pants nosaka pienākumus augsta riska AI sistēmu izvietotājiem. Personāla atlasē "izvietotājs" nozīmē jūs — darba devēju, kas lieto rīku — nevis piegādātāju, kas to izveidoja.

Lūk kontrolsaraksts. Tas nav brīvprātīgs.

1. Inventarizējiet katru AI sistēmu savā personāla atlases procesā.

Kartējiet katru rīku, kas pieskaras kandidātu datiem. Jūsu pieteikumu izsekošanas sistēmu. Jūsu CV parseri. Jūsu video interviju analizatoru. Jūsu čatbotu, kas veic priekšatlasi. Jūsu meklēšanas rīku, kas saskaista kandidātus ar lomām. Ja tas izmanto AI un tas pieskaras personāla atlasei, tas iet sarakstā.

Lielākā daļa organizāciju atklāj sistēmas, par kurām nezināja. Pieņemšanas vadītājs pieteicās bezmaksas izmēģinājumam. Personāla atlases speciālists uzstādīja pārlūkprogrammas paplašinājumu. Aģentūras partneris izmanto AI vērtēšanu. Viss tas skaitās.

2. Iegūstiet atbilstības dokumentāciju no katra piegādātāja.

Saskaņā ar AI regulu augsta riska AI sistēmu sniedzējiem jānodrošina tehniskā dokumentācija, lietošanas instrukcijas un atbilstības deklarācijas. Kā izvietotājam jums ir tiesības uz šo dokumentāciju un tā jums ir nepieciešama, lai izpildītu savus pienākumus.

Jautājiet katram piegādātājam: vai jūsu sistēma ir reģistrēta ES datubāzē? Kur ir jūsu atbilstības novērtējums? Uz kādiem datiem tā tika apmācīta? Kādu aizspriedumu testēšanu esat veikuši?

Ja piegādātājs nespēj atbildēt uz šiem jautājumiem, tā ir jūsu atbilde.

3. Ieviesiet reālu cilvēka pārraudzību.

  1. pants prasa, lai augsta riska AI sistēmas tiktu konstruētas efektīvai cilvēka pārraudzībai. 26. pants prasa, lai izvietotāji to faktiski darītu.

Tas nenozīmē, ka personāla atlases speciālists paskrien aci pāri kandidātu sarakstam un nospiež "apstiprināt". Tā ir zīmogu likšana. Regula prasa, lai cilvēks, kas pārrauga sistēmu, saprot tās rezultātus, spēj identificēt anomālijas, var iejaukties un var atcelt vai mainīt sistēmas rezultātu.

Personāla atlases speciālists, kas apstrādā 500 AI ranžētus kandidātus dienā un noraida apakšējos 400 bez pārskatīšanas, nenodrošina pārraudzību. Viņš nodrošina parakstu.

4. Veiciet aizspriedumu auditus.

Testējiet savas sistēmas attiecībā uz diskriminējošiem rezultātiem aizsargāto īpašību griezumā: dzimums, vecums, etniskā piederība, invaliditāte. Ne vienu reizi. Nepārtraukti. Dokumentējiet rezultātus. Rīkojieties atbilstoši konstatējumiem.

Vašingtonas Universitātes pētījums (2024. gada oktobris) konstatēja, ka AI CV atlases rīki deva priekšroku baltādainu cilvēku vārdiem 85% gadījumu. PNAS Nexus pētījums (2025. gada maijs) testēja GPT-4o, Gemini, Claude un Llama ar 361 000 fiktīviem CV — visi modeļi sistemātiski vērtēja melnādainus vīriešu kandidātus zemāk nekā baltādainus vīriešus ar identiskām kvalifikācijām. Ja jūsu atlases rīks noraida nesamērīgi daudz sieviešu, vecāku pretendentu vai kandidātu ar ne-Rietumu vārdiem, jums ir problēma, kas negaidīs, kamēr regulators to atradīs.

5. Veiciet pamattiesību ietekmes novērtējumu.

  1. pants prasa, lai augsta riska AI izvietotāji noteiktos kontekstos veiktu pamattiesību ietekmes novērtējumu pirms sistēmas lietošanas uzsākšanas. Pat tur, kur 27. pants nav strikti piemērojams, VDAR datu aizsardzības ietekmes novērtējums (35. pants) aptver būtiski līdzīgu jomu.

Novērtējumam jāizvērtē konkrētie pamattiesību riski — nediskriminācija, privātums, cieņa — konkrētajai populācijai, ko jūsu sistēma ietekmēs. Darba pretendentiem. Reāliem cilvēkiem.

6. Informējiet kandidātus.

Kandidātiem jābūt informētiem, ka AI tiek izmantots personāla atlases lēmumos, kas viņus ietekmē. Ne apslēpts jūsu privātuma politikas 47. punktā. Skaidri. Pirms vai brīdī, kad AI sistēma tiek izmantota.


4. panta pamats

Ir prasība, kas ir visu augstāk minēto pamatā, un lielākā daļa organizāciju to pilnībā ignorē.

4. pants ES AI regulā prasa, lai visiem darbiniekiem, kas iesaistīti AI sistēmu darbībā un lietošanā, būtu pietiekams AI pratības līmenis. Nevis izpratne. Pratība.

Jūsu personāla komanda nevar nodrošināt jēgpilnu personāla atlases AI sistēmas pārraudzību, ja tā nesaprot, ko sistēma dara. Tā nevar pamanīt aizspriedumus rezultātos, ja nesaprot, kā aizspriedumi iekļūst apmācības datos. Tā nevar izvērtēt piegādātāja dokumentāciju, ja nezina, kas ir atbilstības novērtējums.

AI pratība nav patīkams papildinājums. Tā ir pamats, uz kura balstās katrs cits pienākums. Bez tā jūsu cilvēka pārraudzība ir teātris, jūsu aizspriedumu auditi ir atzīmju likšanas vingrinājumi, un jūsu pamattiesību ietekmes novērtējums ir dokuments, ko neviens jūsu organizācijā faktiski nevar izmantot.

  1. pants ir izpildāms kopš 2025. gada 2. februāra. Ja jūsu personāla komanda nav saņēmusi strukturētu AI pratības apmācību, jūs jau atpaliekat.

Sods par neatbilstību augsta riska AI pienākumiem ir līdz 15 miljoniem eiro vai 3% no gada globālā apgrozījuma, atkarībā no tā, kas ir lielāks. Jūsu CV atlases rīks ir augsta riska AI sistēma. Likums tā saka. Tiesu prakse parāda kāpēc. Termiņš ir fiksēts.

Vienīgais jautājums ir, vai jūsu organizācija būs gatava.


Sources

  1. EU AI Act — Regulation (EU) 2024/1689, Annex III Category 4(a), Articles 6, 14, 26, 27, published in the Official Journal of the European Union, 2024. eur-lex.europa.eu

  2. Reuters — "Amazon scraps secret AI recruiting tool that showed bias against women," Jeffrey Dastin, October 2018. reuters.com

  3. EEOC — "iTutorGroup to Pay $365,000 to Settle EEOC Age Discrimination Suit," August 2023. eeoc.gov

  4. Mobley v. Workday, Inc. — N.D. Cal. Case No. 3:23-cv-00770. Conditional class certification granted May 2025 for AI hiring discrimination claims. fisherphillips.com

  5. University of Washington — "AI tools show biases in resume screening based on race and gender," October 2024. washington.edu

  6. PNAS Nexus — Study testing GPT-4o, Gemini, Claude, and Llama on 361,000 fictitious resumes; all models showed systematic racial bias, May 2025. brookings.edu

  7. GDPR — Regulation (EU) 2016/679, Article 4(4) definition of profiling, Article 22 automated decision-making, Article 35 DPIA. eur-lex.europa.eu