Jūsu CV atlases rīks ir augsta riska MI sistēma
Autors: Alex Blumentals — TwinLadder
Jūsu pieteikumu izsekošanas sistēma noraidīja 200 kandidātus pirms brokastīm. Neviens cilvēks tos neredzēja. Saskaņā ar ES MI regulu jūsu personāla nodaļa tikko darbināja augsta riska MI sistēmu — un vairāk nekā 65% lielo darba devēju dara tieši to pašu.
Lielākā daļa personāla vadītāju to neapzinās. Viņi uztver savu CV atlases rīku kā produktivitātes rīku, filtru, laika taupītāju. ES MI regula to uztver kā sistēmu, kas profilē fiziskās personas un izlemj, kam ir iespēja nopelnīt iztiku. Regulai ir taisnība.
Izpildes datums ir 2026. gada 2. augusts. Ja jūsu organizācija izmanto MI jebkurā personāla atlases posmā — atlasē, ranžēšanā, sarakstu veidošanā, atbilstības meklēšanā — šis raksts ir jūsu trauksmes signāls.
Ko likums patiesībā saka
ES MI regula iedala MI sistēmas riska kategorijās. Augstākā regulētā kategorija — augsts risks — ietver pilnu atbilstības režīmu: atbilstības novērtējumus, cilvēka pārraudzību, aizspriedumu monitorēšanu, incidentu ziņošanu, pamattiesību ietekmes novērtējumus.
Personāla atlases MI ietilpst tieši šajā kategorijā.
III pielikuma 4.(a) kategorija tieši norāda:
"MI sistēmas, kas paredzētas izmantošanai fizisko personu pieņemšanai darbā vai atlasei, jo īpaši mērķētu darba sludinājumu izvietošanai, darba pieteikumu analīzei un filtrēšanai un kandidātu novērtēšanai."
Šeit nav nekādas neskaidrības. Likumdevēji neapslēpa personāla atlasi zemsvītras piezīmē. Viņi to izvirzīja priekšplānā ar konkrētiem piemēriem. Darba pieteikumu filtrēšana ir nosaukta. Kandidātu novērtēšana ir nosaukta. Ja jūsu sistēma dara kādu no šīm lietām, jūs esat tvērumā.
Tas nav interpretācijas jautājums. Tas ir lasīšanas jautājums.
Atkāpju slazds
Šeit lielākā daļa atbilstības komandu kļūdās.
MI regulas 6. panta 3. punkts piedāvā atkāpes — veidus, kā III pielikumā uzskaitītās sistēmas var izvairīties no augsta riska klasifikācijas. Sistēma var izvairīties no marķējuma, ja tā veic tikai šauru procedurālu uzdevumu, ja tā uzlabo iepriekšējas cilvēka darbības rezultātu, ja tā konstatē lēmumu pieņemšanas modeļus, neaizstājot cilvēka novērtējumu, vai ja tā tikai sagatavo datus novērtējumam, ko veiks cilvēks.
Četras izejas. Personāla komandas un to piegādātāji mēģinās katru no tām.
"Mūsu rīks tikai ranžē kandidātus — cilvēks pieņem galīgo lēmumu."
"Tas tikai izceļ atslēgvārdus — tas neko neizlemj."
"Tas ir lēmumu atbalsta rīks, nevis lēmumu pieņemšanas rīks."
Neviens no šiem argumentiem neiztur 6. panta 3. punktu.
6. panta 3. punkts nosaka valodā, kas neatstāj vietu radošai juristu argumentācijai:
"Šā pielikuma III pielikumā minētā MI sistēma vienmēr tiek uzskatīta par augsta riska sistēmu, ja MI sistēma veic fizisku personu profilēšanu."
Vienmēr. Ne parasti. Ne vairumā gadījumu. Vienmēr.
Un CV atlase ir profilēšana. Pēc definīcijas. Sistēma ņem personas datus — izglītības vēsturi, darba pieredzi, prasmes, atrašanās vietu, dažreiz vecumu, dažreiz vārdu — un izmanto tos, lai ranžētu, vērtētu, kategorizētu vai filtrētu cilvēkus. Tā ir mācību grāmatas profilēšana saskaņā ar VDAR definīciju, ko iekļauj MI regula.
Brīdī, kad jūsu sistēma piešķir punktu skaitu, rangu vai jā/nē kandidātam, pamatojoties uz viņa personīgajām iezīmēm, katra atkāpe 6. panta 3. punktā iztvaikst.
Jūsu personāla atlases MI ir augsts risks. Punkts.
Kas notika citur
Ja juridiskais arguments šķiet abstrakts, tiesu prakse ir konkrēta.
Amazon, 2018. Amazon izveidoja iekšēju MI personāla atlases rīku, kas apmācīts uz desmit gadu CV datiem. Sistēma iemācījās, ka lielākā daļa veiksmīgi pieņemto darbinieku bija vīrieši — jo lielākā daļa tehnoloģiju nozarē pieņemto bija vīrieši — un sāka sistemātiski sodīt CV, kas saturēja vārdu "women's" (kā "women's chess club") vai kas uzrādīja sieviešu koledžas. Amazon atcēla rīku. Kaitējums bija mācība: MI, kas apmācīts uz neobjektīviem pieņemšanas datiem, reproducē neobjektīvus pieņemšanas lēmumus. Tā nav kļūda. Tā ir noklusējuma uzvedība.
iTutorGroup, 2023. ASV Vienlīdzīgu nodarbinātības iespēju komisija (EEOC) panāca izlīgumu ar iTutorGroup par 365 000 $, konstatējot, ka uzņēmuma automatizētā personāla atlases programmatūra noraidīja pretendentus pēc vecuma. Sievietes virs 55 un vīrieši virs 60 tika izfiltrēti. Ne ar cilvēka lēmumu. Ar sistēmu, ko neviens pietiekami rūpīgi neuzraudzīja. EEOC to nosauca, kā tas ir: algoritmiskā vecuma diskriminācija.
Workday, notiek. Lietā Mobley pret Workday melnādains pretendents, virs 40 gadiem, ar trauksmi un depresiju apgalvoja, ka Workday MI atlases rīki sistemātiski diskriminēja viņu rases, vecuma un invaliditātes dēļ vairāk nekā 100 darba pieteikumos, izmantojot šo platformu. 2025. gada maijā tiesa piešķīra nosacītu sertifikāciju kā valsts mēroga kolektīvai prasībai — potenciāli aptverot miljoniem darba pretendentu virs 40 gadiem. Lieta noteica, ka MI piegādātāji — ne tikai darba devēji — var tikt saukti pie atbildības kā nodarbinātības aģenti.
Tie nav hipotētiski riski. Tās ir lietas, kas jau notika, vājākos regulatīvos režīmos, pirms MI regula pastāvēja. Regula pastāv tieši tāpēc, ka šīs lietas notika.
Kas jums jāizdara pirms 2026. gada augusta
- pants nosaka pienākumus augsta riska MI sistēmu izvietotājiem. Personāla atlasē "izvietotājs" nozīmē jūs — darba devēju, kas lieto rīku — nevis piegādātāju, kas to izveidoja.
Lūk kontrolsaraksts. Tas nav brīvprātīgs.
1. Inventarizējiet katru MI sistēmu savā personāla atlases procesā.
Kartējiet katru rīku, kas pieskaras kandidātu datiem. Jūsu pieteikumu izsekošanas sistēmu. Jūsu CV parseri. Jūsu video interviju analizatoru. Jūsu čatbotu, kas veic priekšatlasi. Jūsu meklēšanas rīku, kas saskaista kandidātus ar lomām. Ja tas izmanto MI un tas pieskaras personāla atlasei, tas iet sarakstā.
Lielākā daļa organizāciju atklāj sistēmas, par kurām nezināja. Pieņemšanas vadītājs pieteicās bezmaksas izmēģinājumam. Personāla atlases speciālists uzstādīja pārlūkprogrammas paplašinājumu. Aģentūras partneris izmanto MI vērtēšanu. Viss tas skaitās.
2. Iegūstiet atbilstības dokumentāciju no katra piegādātāja.
Saskaņā ar MI regulu augsta riska MI sistēmu sniedzējiem jānodrošina tehniskā dokumentācija, lietošanas instrukcijas un atbilstības deklarācijas. Kā izvietotājam jums ir tiesības uz šo dokumentāciju un tā jums ir nepieciešama, lai izpildītu savus pienākumus.
Jautājiet katram piegādātājam: vai jūsu sistēma ir reģistrēta ES datubāzē? Kur ir jūsu atbilstības novērtējums? Uz kādiem datiem tā tika apmācīta? Kādu aizspriedumu testēšanu esat veikuši?
Ja piegādātājs nespēj atbildēt uz šiem jautājumiem, tā ir jūsu atbilde.
3. Ieviesiet reālu cilvēka pārraudzību.
- pants prasa, lai augsta riska MI sistēmas tiktu konstruētas efektīvai cilvēka pārraudzībai. 26. pants prasa, lai izvietotāji to faktiski darītu.
Tas nenozīmē, ka personāla atlases speciālists paskrien aci pāri kandidātu sarakstam un nospiež "apstiprināt". Tā ir zīmogu likšana. Regula prasa, lai cilvēks, kas pārrauga sistēmu, saprot tās rezultātus, spēj identificēt anomālijas, var iejaukties un var atcelt vai mainīt sistēmas rezultātu.
Personāla atlases speciālists, kas apstrādā 500 MI ranžētus kandidātus dienā un noraida apakšējos 400 bez pārskatīšanas, nenodrošina pārraudzību. Viņš nodrošina parakstu.
4. Veiciet aizspriedumu auditus.
Testējiet savas sistēmas attiecībā uz diskriminējošiem rezultātiem aizsargāto īpašību griezumā: dzimums, vecums, etniskā piederība, invaliditāte. Ne vienu reizi. Nepārtraukti. Dokumentējiet rezultātus. Rīkojieties atbilstoši konstatējumiem.
Vašingtonas Universitātes pētījums (2024. gada oktobris) konstatēja, ka MI CV atlases rīki deva priekšroku baltādainu cilvēku vārdiem 85% gadījumu. PNAS Nexus pētījums (2025. gada maijs) testēja GPT-4o, Gemini, Claude un Llama ar 361 000 fiktīviem CV — visi modeļi sistemātiski vērtēja melnādainus vīriešu kandidātus zemāk nekā baltādainus vīriešus ar identiskām kvalifikācijām. Ja jūsu atlases rīks noraida nesamērīgi daudz sieviešu, vecāku pretendentu vai kandidātu ar ne-Rietumu vārdiem, jums ir problēma, kas negaidīs, kamēr regulators to atradīs.
5. Veiciet pamattiesību ietekmes novērtējumu.
- pants prasa, lai augsta riska MI izvietotāji noteiktos kontekstos veiktu pamattiesību ietekmes novērtējumu pirms sistēmas lietošanas uzsākšanas. Pat tur, kur 27. pants nav strikti piemērojams, VDAR datu aizsardzības ietekmes novērtējums (35. pants) aptver būtiski līdzīgu jomu.
Novērtējumam jāizvērtē konkrētie pamattiesību riski — nediskriminācija, privātums, cieņa — konkrētajai populācijai, ko jūsu sistēma ietekmēs. Darba pretendentiem. Reāliem cilvēkiem.
6. Informējiet kandidātus.
Kandidātiem jābūt informētiem, ka MI tiek izmantots personāla atlases lēmumos, kas viņus ietekmē. Ne apslēpts jūsu privātuma politikas 47. punktā. Skaidri. Pirms vai brīdī, kad MI sistēma tiek izmantota.
4. panta pamats
Ir prasība, kas ir visu augstāk minēto pamatā, un lielākā daļa organizāciju to pilnībā ignorē.
4. pants ES MI regulā prasa, lai visiem darbiniekiem, kas iesaistīti MI sistēmu darbībā un lietošanā, būtu pietiekams MI pratības līmenis. Nevis izpratne. Pratība.
Jūsu personāla komanda nevar nodrošināt jēgpilnu personāla atlases MI sistēmas pārraudzību, ja tā nesaprot, ko sistēma dara. Tā nevar pamanīt aizspriedumus rezultātos, ja nesaprot, kā aizspriedumi iekļūst apmācības datos. Tā nevar izvērtēt piegādātāja dokumentāciju, ja nezina, kas ir atbilstības novērtējums.
MI pratība nav patīkams papildinājums. Tā ir pamats, uz kura balstās katrs cits pienākums. Bez tā jūsu cilvēka pārraudzība ir teātris, jūsu aizspriedumu auditi ir atzīmju likšanas vingrinājumi, un jūsu pamattiesību ietekmes novērtējums ir dokuments, ko neviens jūsu organizācijā faktiski nevar izmantot.
- pants ir izpildāms kopš 2025. gada 2. februāra. Ja jūsu personāla komanda nav saņēmusi strukturētu MI pratības apmācību, jūs jau atpaliekat.
Sods par neatbilstību augsta riska MI pienākumiem ir līdz 15 miljoniem eiro vai 3% no gada globālā apgrozījuma, atkarībā no tā, kas ir lielāks. Jūsu CV atlases rīks ir augsta riska MI sistēma. Likums tā saka. Tiesu prakse parāda kāpēc. Termiņš ir fiksēts.
Vienīgais jautājums ir, vai jūsu organizācija būs gatava.
Sources
-
EU AI Act — Regulation (EU) 2024/1689, Annex III Category 4(a), Articles 6, 14, 26, 27, published in the Official Journal of the European Union, 2024. eur-lex.europa.eu
-
Reuters — "Amazon scraps secret AI recruiting tool that showed bias against women," Jeffrey Dastin, October 2018. reuters.com
-
EEOC — "iTutorGroup to Pay $365,000 to Settle EEOC Age Discrimination Suit," August 2023. eeoc.gov
-
Mobley v. Workday, Inc. — N.D. Cal. Case No. 3:23-cv-00770. Conditional class certification granted May 2025 for AI hiring discrimination claims. fisherphillips.com
-
University of Washington — "AI tools show biases in resume screening based on race and gender," October 2024. washington.edu
-
PNAS Nexus — Study testing GPT-4o, Gemini, Claude, and Llama on 361,000 fictitious resumes; all models showed systematic racial bias, May 2025. brookings.edu
-
GDPR — Regulation (EU) 2016/679, Article 4(4) definition of profiling, Article 22 automated decision-making, Article 35 DPIA. eur-lex.europa.eu

