Människor bör bedöma människor
En reflektion om balansen mellan AI och mänskligt omdöme i rekrytering av
Ellinor Crafoord, Senior Rekryteringskonsult på SallyQ

När jag var tonåring oroade sig min pappa, född 1936, för att datorerna en dag skulle ta över lärarnas jobb.
Året var 1996, jag gick i nian och hade just lärt mig mina första PC-kommandon.
Tre decennier senare lever vi bokstavligen sida vid sida med maskiner – ibland med fler datorer än människor i hemmet. ChatGPT, Co-Pilot, digitala verktyg och Siri har blivit en självklar del av vardagen – ibland som hjälp, ibland som sällskap.
Möjligheterna är enorma.
Men ser vi också riskerna?
AI i rekrytering – effektivt, men till vilket pris?
Inom rekrytering används AI redan flitigt – för att läsa av CV:n, matcha kandidater och till viss del även bedöma kompetens. Det kan absolut effektivisera och ibland till och med förbättra processer. Arbetet med AI stöd är både billigare , snabbare och lätt att skala upp.
Men frågan är vad som går förlorat när maskinerna börjar göra människans jobb – när den mänskliga bedömningen byts ut mot algoritmer.
Behovsanalysen – där rekryteringen börjar
Varje rekrytering startar med en behovsanalys, beskriven av människor. Två personer kan beskriva exakt samma behov på helt olika sätt, beroende på erfarenhet, språk och världsbild. Den nyansen är svår att fånga för en maskin.
Och när vi sedan översätter behovet till en kravprofil, och matchar det mot kandidaternas bakgrund – då blir det ännu mer komplext. För vem säger att alla med fem års erfarenhet av ett område besitter samma kunskap eller potential?
AI kan mäta, men inte alltid förstå.
Det emotionella mötet går inte att ersätta
För att förstå en människa på djupet krävs möten på både det intellektuella och det emotionella planet. Vi måste kunna lyssna, tolka, känna. Det är så vi fångar berättelsen bakom CV:t, ser riskbeteenden, potential och motivation. Det är också därför det är så sorgligt när arbetssökande i ett utsatt läge möts enbart av chattbottar och automatiska mejl. De får aldrig möjlighet att berätta sin historia – och därmed försvinner det mänskliga mötet som kan förändra allt.

AI är inte neutralt
Förespråkare menar ofta att AI kan minska mänskliga bias. Tyvärr visar forskning motsatsen En studie från University of Washington (2024)1 visar till exempel att tre ledande språkmodeller som användes för att ranka CV:n favoriserade “vit-relaterade” namn i 85 % av fallen jämfört med “svart-relaterade” namn.
Tekniken kan alltså förstärka snarare än motverka ojämlikhet – bara på ett mer sofistikerat sätt.
Rekrytering är – och bör förbli – mänsklig
Efter 14 år och över tusen intervjuer vet jag en sak: varje människa är en berättelse. Även den som inte får jobbet ska känna att någon faktiskt har lyssnat och gjort en mänsklig bedömning.
Jag har genom åren mött många kandidater som på pappret inte varit det självklara valet – men där jag anat potentialen. Den där gnistan i ögonen, engagemanget i rösten eller viljan att växa har gjort att de, med rätt förutsättningar, blommat ut till något riktigt stort.
AI kan vara ett kraftfullt stöd, men inte en ersättare. För att minimera risken för felrekrytering och skapa hållbara matchningar krävs professionella bedömningar av människor – som förstår människor.
Punkt slut.
AI kan stötta oss i mycket – men de bästa rekryteringarna skapas fortfarande genom mänsklig förståelse, lyhördhet och erfarenhet.
Hos SallyQ kombinerar vi erfarenhet, kännedom om marknad samt modern teknik för att hjälpa våra kunder att rekrytera kompetens som verkligen gör skillnad.
👉 Kontakta Ellinor Crafoord för att diskutera hur vi kan stärka ert team med rätt människor – på riktigt.
- Källa: University of Washington (2024), “AI bias in résumé screening by race and gender”.
