Hai perso la password?

Software e pregiudizio

Una premessa doverosa: l’essere umano ha dei bias cognitivi, dei pregiudizi. Sono inconsci, sono innati, sono innegabili. Il primo passo verso un mondo equo è riconoscere di avere questi pregiudizi – giudizi pre-conoscenza – che rischiano di incasellare come ‘buono’ o ‘cattivo’ (a grandissime linee) chi ci si trova di fronte, semplicemente sulla base di alcuni aspetti (genere, provenienza, orientamento sessuale…).

Altra premessa altrettanto doverosa: nel 2019 il 98% delle 500 imprese scelte dalla rivista Fortune come “aziende del momento” utilizzava un Applicant tracking system (Ats) nel proprio processo di assunzione dei candidati, e non solo per questioni di costi o efficienza, ma proprio per annullare le discriminazioni.

Gli algoritmi e l’Intelligenza Artificiale dovrebbero, infatti, aiutare a superare i bias anche in fase di selezione del personale, assicurando imparzialità. Ma persino gli Ats potrebbero avere pregiudizi, finendo per replicare i limiti umani e di conseguenza danneggiando l’azienda che, inconsapevolmente si fida degli algoritmi, rimettendosi alla tecnologia in questa fase del processo di scelta delle persone. Eppure ci si chiede: come può avere bias un software? I pregiudizi di un essere umano possono affiorare in diversi modi.

Per esempio, quando il recruiter si trova di fronte un potenziale candidato, questi, con la sua voce o il suo aspetto esteriore, ne può orientare la valutazione. Ma potrebbero emergere anche semplicemente in seguito alla lettura delle informazioni scritte nei curriculum vitae. Le persone con nomi e cognomi che suonano ‘più bianchi’ hanno, per esempio, il 75% in più di possibilità di ottenere un colloquio rispetto a chi ha nomi asiatici e il 50% in più rispetto ai nomi black-sounding; inoltre i nomi maschili hanno il 40% di chance in più rispetto a quelli femminili.

I dati sono confermati da uno studio condotto nel 2016 da ricercatori dell’University of Toronto e della Stanford University. Si presuppone, quindi, che un Ats sia studiato esattamente per evitare questo tipo di discriminazioni. Anche perché, come ha sottolineato uno studio di Harvey Nash, le aziende stanno sempre più perseguendo un obiettivo di assunzione che inglobi diversità e inclusione (non discriminando in base a genere, cultura, età ed etnia).

Tracciare le assunzioni per limitare le discriminazioni

Gli Ats, per quanto artificialmente intelligenti, sono comunque programmati da esseri umani. Secondo Matteo Cocciardo, CEO di In-recruiting, società HR Tech specializzata in software e sistemi di recruiting e Talent acquisition (come l’Ats In-recruiting e la tecnologia di Intelligenza Artificiale Inda): “La presenza di pregiudizi nei selezionatori – per quanto inconscia – è evidente, così come lo è quella di questi bias negli algoritmi. Chi garantisce che un sistema automatizzato sia più imparziale di un selezionatore umano? I software sono programmati affinché la ricerca venga eseguita spuntando caselle e affinata secondo ciò che si sta cercando, ma all’origine di questa programmazione ci sono gli esseri umani. Chi indirizza l’Ats, dunque, è sempre una persona.”

Per Enrico Ariotti, CEO di nCoreHR – azienda che aiuta i recruiter ad automatizzare le operazioni HR – il software deve innanzitutto sostenere – e non sostituire – il lavoro dei recruiter, anche perché “pensare di utilizzare la sola tecnologia al 100%, eliminando il lavoro dei selezionatori umani, è fantascienza”.

Prima di tutto perché un algoritmo non può prendere del tutto decisioni, e in secondo luogo perché la selezione del personale passa necessariamente dalla valutazione di più professionisti: anche solo per analizzare le soft skill e le hard skill c’è bisogno di specialisti distinti (chi sulle competenze personali e interpersonali, chi su quelle tecniche richieste dalla posizione lavorativa in questione). Il talento, inoltre, non si cela, secondo Ariotti, solo nel curriculum, ed è per questo che un sistema di tracciamento automatico dei cv può essere utile solo in una prima fase della selezione che deve condurre, per forza, a un incontro di persona.

Sono altri, per il CEO di nCoreHR, gli strumenti utili per osservare la reale competenza, come per esempio le video-interviste inviate ai selezionatori dai candidati, che sono visionate da personale qualificato e specializzato che può così individuare, insieme al curriculum, agli assessment e al colloquio di persona le reali skill, ovvero l’attitudine, l’intraprendenza, le lingue conosciute, al di là delle precedenti esperienze o dell’istruzione, dati che parlano solo fino a un certo punto.

I recruiter, però, sono umani, e si rischia di tornare di nuovo sui pregiudizi, che non vanno sottovalutati dando per scontato di non averne (i bias fanno parte di ogni singolo essere umano). Interessante, in questo senso, vedere come i tempi siano cambiati proprio nella direzione opposta alla discriminazione: “Sono gli stessi clienti ormai a chiederci strumenti che permettano di essere il meno influenzati dai bias”, svela Ariotti. “Le aziende hanno paura di cadere nella trappola del pregiudizio, anche inconsapevolmente. I software possono in questo caso aiutare perché mappano i dati e permettono quindi di avere un quadro completo della situazione”.

Quante donne e quanti uomini sta assumendo l ’azienda? Quanti provengono dal Nord e quanti dal Sud? Queste sono solo alcune delle domande a cui possono dar e una risposta gli indici di tracciamento che aiutano a tenere sotto controllo l’andamento delle assunzioni. “Tenendo in considerazione la distribuzione delle caratteristiche dei talenti è possibile quindi pensare a come attirare i candidati, bilanciando e tenendo sempre d’occhio le tendenze e le probabilità, che naturalmente cambiano quando si cercano ingegneri (tendenzialmente più numerosi delle ingegnere) o quando si vogliono individuare altri professionisti e professioniste”, dice Ariotti.

Oltre al software, quindi, c’è sempre l’intelligenza umana: sta al recruiter, in altre parole, capire i trend all’interno dell’azienda, perché accadono e come indirizzare le assunzioni. L’etica rimane dunque in mano agli sviluppatori, ma anche al Regolamento generale per la protezione dei dati personali (Gdpr) e all’Unione europea, così come ai singoli Paesi che ogni giorno si interrogano sulle questioni come privacy e discriminazioni.

Concorda con questa visione John Martelli, CEO di Altamira, azienda specializzata in software per l’HR, secondo cui dovrebbe essere innanzitutto la legge italiana a dare indicazioni. “In altri Stati ci sono leggi specifiche per garantire l’eguaglianza di trattamento in fase di colloquio e assunzione, mentre in Italia abbiamo solo quella che impedisce la discriminazione di genere sugli annunci di lavoro imponendo la mera dicitura ‘rivolto ad ambo i sessi’. Non c’è ancora l’obbligo a livello aziendale di rendicontare la diversità, ed è quella la strada che invece andrebbe regolamentata. E non si tratta delle semplici quote rosa nella Pubblica amministrazione”.

La pulizia analitica (ben fatta) è l’arma contro i pregiudizi

Tornando ai pregiudizi umani che restano incagliati negli algoritmi dei software, per Cocciardo uno dei motivi può essere l’utilizzo errato dei dati storici per l’analisi predittiva e per l’addestramento del modello. Per esempio, quando si importano i candidati mantenendo alcune informazioni (come età, genere, nazionalità…) che, da quel momento, verranno tenute in considerazione per le attività di ricerca e valutazione. Escluderli, invece, significa utilizzare i dati in modo corretto e tenere in considerazione solo le informazioni davvero necessarie al fine di evitare uno sbilanciamento.

Quando i dati inseriti non sono puliti e corretti, quindi, ci si trova di fronte a situazioni come quella di Amazon. La notizia è di qualche tempo fa: il software per l’assunzione utilizzato dal colosso della distribuzione online, in quel caso, selezionava più uomini ingegneri rispetto alle donne, a parità di competenze. Si potrebbe dire – a ragione – che nell’ambito ingegneristico la numerosità di maschi è superiore a quella delle donne (che tuttavia cresce: se nel 2000 il tasso di donne laureate in ingegneria era del 16%, nel 2017 si è saliti al 28%, con le donne che rappresentano oggi circa il 19% della popolazione di ingegneri, come fanno sapere dal Centro Studi del Consiglio Nazionale Ingegneri); ma in quel caso, probabilmente, il sistema aveva applicato alla ricerca presente un ragionamento fondato sulla tendenza passata, dando per scontato che, se prima gli ingegneri erano quasi esclusivamente uomini, allora così avrebbe dovuto continuare ad essere. “Il problema è quindi alla fonte e ciò accade quando la pulizia analitica, che è costosa e lunga, viene considerata poco fondamentale dall’azienda di selezione, quando di fatto è la base per modelli efficienti”.

Tra i vari strumenti che le aziende possono quindi adottare per ottenere Ats che siano davvero privi di pregiudizi, si applica proprio il concetto di pulizia analitica, che può essere anche semantica, con i sistemi programmati per indirizzarsi verso candidati e candidate di tutti i generi nonostante il dato immesso al femminile o al maschile. Per esempio, pur cercando le parole “ingegnere” o “segretaria”, il sistema può proporre candidature legate a ogni identità delle persone.

Non ultimo, c’è da nominare certamente l’anonimizzazione dei cv: il blind recruitment è tra le più recenti e più diffuse modalità di lettura delle candidature. Su questo aspetto Cocciardo dice: “Per ridurre i bias – perché eliminarli è impossibile – i sistemi sono in grado di nascondere i dati personali come nome, cognome, sesso, età, nazionalità… Dati che potrebbero portare il selezionatore a concentrarsi su qualcosa di diverso rispetto alle competenze”.

Gli algoritmi dell’Intelligenza Artificiale aiutano a generare una copia esatta del curriculum in formato anonimo (a prescindere dal modello inviato dal candidato), estraendo un testo standardizzato che permette di attribuire un significato alle competenze senza dettagli personali. “Nascondere i dati dei candidati ai recruiter”, però, “non annulla l’eventuale pregiudizio o bias che potrebbe comunque emergere durante il colloquio (e far perdere tempo sia al recruiter che al candidato), ma può aiutare il selezionatore a dare il giusto peso alle competenze durante la selezione”. Le funzionalità sviluppate dalle aziende che forniscono software, quindi, sono utili per condividere in modalità anonima i candidati con i manager in modo da avere un parere oggettivo sulle competenze, oppure con i clienti nel caso delle agenzie del lavoro (anche per evitare che i candidati vengano contatti direttamente dall’azienda saltando la mediazione).

Andare oltre l’anonimizzazione con etica, empatia e… Analytics

Secondo Martelli si può addirittura andare oltre l’anonimizzazione dei cv perché, a suo giudizio, pur avendo senso, è in grado di oscurare i dati solo nelle fasi preliminari: “Il colloquio di persona lo si svolge sempre e comunque e in quella sede i bias e i pregiudizi escono”. In Italia, per Martelli, ci sarebbe bisogno di un’azione congiunta: alle analisi numeriche, che sono importanti, ma non perfette, si dovrebbero affiancare regolamenti europei sull’Intelligenza Artificiale per aggiungere trasparenza su tutti i meccanismi, dalla fase di ricerca di talenti e assunzione fino alle valutazioni dei dipendenti e ai percorsi di carriera e alle promozioni.

“Infine dovremmo prendere spunto da altri Paesi: in Scandinavia e negli Stati Uniti, per esempio, è vietato raccogliere e scrivere sul curriculum la data di nascita, e il cv deve essere privo di fotografia. Qui in Italia ancora la si chiede”. Anche in questo caso, la selezione al buio sarebbe solo preliminare ma, spiega Martelli, alcuni studi suggeriscono che l’assenza di questi due dati ha un già impatto positivo: “Quale sia il peso di questo impatto ancora non lo sappiamo, ma è certo che l’interazione umana viene influenzata da questi meccanismi”. La selezione finale la esegue quindi sempre un essere umano, e il CEO di Altamira si augura che questa continui a essere la prassi. “L’empatia è comunque fondamentale quando di parla di risorse umane ”.

Così come l’etica, che per Ariotti dev’essere la prima leva dei selezionatori e degli sviluppatori, soprattutto ora che non vi sono linee guida europee oltre ai basilari principi etici che ci si augura vengano seguiti da chi lavora in questo settore. A esse si uniscono quindi gli Analytics sui dati. Solo così gli Ats e l’Intelligenza Artificiale possono dimostrarsi davvero alleati dei recruiter e soprattutto dei potenziali candidati, assicurando la varietà della platea delle persone che potenzialmente possono entrare nell’organizzazione ed evitando che i pregiudizi insidiosi intacchino, anche inconsciamente, la valutazione. Che sia iniziale o finale non cambia.

Ma avere ben chiari i dati analitici della popolazione dei candidati è fondamentale: la discriminazione, in questo caso, emerge subito. E dà la possibilità di aggiustare il tiro, evitando errori e comprendendo davvero i meccanismi di rispetto.

L’articolo è pubblicato sul numero di Giugno 2021 della rivista Persone&Conoscenze.
Per informazioni sull’acquisto scrivi a daniela.bobbiese@este.it (tel. 02.91434400)

L’articolo Software e pregiudizio proviene da Parole di Management.

Edizioni Este S.r.l.
Via Cagliero, 23 - 20125 Milano
P.IVA: 00729910158 | TEL:02 91 43 44 00 | FAX:02 91 43 44 24
segreteria@este.it

Cookie Policy | Privacy Policy

Copyright © ESTE Srl - Powered by Sernicola Labs Srl