"Dovrai affrontare [la diversità] che tu lo voglia o no," ha detto Jarik Conrad, direttore senior dell'innovazione nella gestione del capitale umano (HCM) per Ultimate Software, a un gruppo di partecipanti attenti a una delle poche sessioni sulla diversità durante l'evento di quest'anno HR Tech.
Durante l'HR Tech di quest'anno ho incontrato alcuni fornitori, esplorato alcune demo e partecipato a diverse sessioni sulla diversità nella tecnologia. Conrad e Trish McFarlane, CEO e analista principale per H3 HR Advisors, hanno presentato "Come la tecnologia HR può aiutare i CHRO a guidare le iniziative DE&I più impattanti." Questa sessione ha fornito approfondimenti su questioni come le statistiche sulla diversità, l'equità e l'inclusione (DE&I) in Nord America, e su come comprendere il continuum dei bisogni dei dipendenti.
Purtroppo, la sessione è terminata prima che Conrad e McFarlane potessero spiegare come la tecnologia HR aiuti a guidare iniziative DE&I significative. Ero interessato a sentirli parlare di come la tecnologia, in particolare il software di reclutamento per la diversità, possa aiutare. Il "come" è la parte più difficile dell'equazione da risolvere, e il G2 sulla diversità sta solo trovando più domande.
Chiaramente, la tecnologia non è la panacea per aumentare la diversità in tutti i settori. Tuttavia, ci permette di fare cose in un modo che prima non era possibile. Può aiutare i professionisti HR a identificare i problemi e la loro portata; tuttavia, può presentare ulteriori sfide lungo il percorso. Un tema è emerso durante le sessioni sulla diversità all'HR Tech: la necessità di comprendere cosa c'è sotto il cofano, o meglio, cosa c'è dentro la scatola nera.
Il problema della scatola nera dell'IA
Dentro e fuori dal posto di lavoro, ci fidiamo sempre più dei sistemi di intelligenza artificiale (IA) per prendere decisioni per nostro conto. Da Alexa di Amazon ai consigli personalizzati per lo shopping online, le nostre vite sono quotidianamente influenzate da questi sistemi. Sebbene l'IA sia integrata nella nostra vita quotidiana, questi sistemi non sono affatto opachi. Non possiamo vedere dentro la scatola nera, o l'algoritmo, e quindi non possiamo capire come vengono prese le decisioni. Questo di solito diventa evidente dopo che viene trovato un pregiudizio all'interno di una soluzione.
Cos'è la scatola nera?
Una scatola nera è un sistema che può essere compreso in termini di input e output; tuttavia, a causa della natura proprietaria dei dati, c'è poca comprensione del funzionamento interno del sistema.
All'inizio di questo mese al TWIMLcon a San Francisco, Khari Johnson, scrittore senior di AI per VentureBeat, ha moderato un panel sull'operazionalizzazione dell'IA responsabile. In un articolo di follow-up sul panel, ha ampliato l'idea che una mancanza di comprensione di come operano i sistemi di IA risulti in pregiudizi e possa danneggiare persone reali in modi seri.
Considerando di concentrarsi sull'utente, Guillaume Saint-Jacques, ingegnere software senior di LinkedIn, ha insistito sul fatto che dobbiamo guardare oltre il pregiudizio e considerare il potenziale danno che i sistemi di IA non controllati possono causare. Rachel Thomas, direttrice del Center for Applied Data Ethics, ha fornito esempi di algoritmi che erroneamente tagliano i benefici Medicaid o licenziano ciecamente insegnanti basandosi su dati errati.
| CONSIGLIO: Non è tutto avvertimento e allerta quando si tratta di IA. Rebecca Reynoso analizza i benefici e i rischi dell'intelligenza artificiale e fornisce esempi del settore. |
Il potenziale di danno e pregiudizio nell'IA non conosce limiti. L'IA che aiuta a migliorare il reclutamento per la diversità ha fatto notizia recentemente. Amazon ha trascorso anni a costruire un sistema di reclutamento IA che ha dovuto scartare dopo che ha mostrato pregiudizi contro i candidati donne. Il modello classificava i candidati basandosi su 10 anni di curriculum. La maggior parte dei curriculum proveniva da uomini; quindi il sistema considerava gli uomini più qualificati quando classificati accanto a candidati donne.
Diversificare la tecnologia
Sono passati cinque anni da quando il CEO di Apple, Tim Cook, ha scritto una lettera ai dipendenti promettendo che l'azienda sarebbe stata "innovativa nell'avanzare la diversità quanto lo siamo nello sviluppare prodotti." Come WIRED ha recentemente riportato, l'industria tecnologica ha fatto pochissimi progressi in termini di iniziative di assunzione per la diversità. Oggi le forze lavoro che compongono Apple, Facebook, Google e Microsoft sono ancora in gran parte uomini (bianchi o asiatici). Secondo Freada Kapor Klein, partner fondatore della società di venture capital Kapor Capital, ci sono barriere al raggiungimento degli obiettivi di diversità che si nascondono dietro ogni angolo.

Le aziende devono affrontare i pregiudizi radicati nella loro cultura prima di poter migliorare le loro pratiche di assunzione. Attualmente stiamo affrontando un fastidioso paradosso. La tecnologia ha un problema con la diversità. La tecnologia sta inconsapevolmente creando soluzioni IA pregiudiziali che danneggiano, ignorano o snobbano una serie di esseri umani. La tecnologia ha bisogno di una gamma diversificata di individui per costruire e istituire un'IA responsabile. La tecnologia non sembra riuscire a fare veri progressi nell'espandere il loro bacino di talenti. Eppure stiamo costantemente innovando ed espandendo le capacità dell'IA. Può l'IA aiutare a diversificare il bacino di talenti?
Reimmaginare le risorse umane
Secondo il Global Talent Trends 2019 report della società di consulenza Mercer, l'88% delle aziende utilizza già l'IA nelle risorse umane. La maggior parte di queste aziende impiega soluzioni IA sotto forma di chatbot per candidati e dipendenti, gestione delle prestazioni, pianificazione della carriera e screening o valutazione dei candidati.
Un numero crescente di soluzioni di screening e valutazione basate sull'IA che le aziende utilizzano o stanno considerando include già funzionalità di diversità. Il mercato per questa tecnologia crescerà solo. Ci sono già molte aziende che implementano queste soluzioni. Durante un altro panel all'HR Tech su HR nell'era dell'intelligenza artificiale, Jennifer Carpenter, VP dell'acquisizione globale di talenti per Delta, ha detto che l'implementazione della tecnologia di valutazione guidata dall'IA ha permesso a Delta di raddoppiare il numero di candidati che sono arrivati alle interviste finali.
Durante la parte delle domande di quella sessione, un partecipante ha chiesto al panel se "controllano l'algoritmo" per errori o problemi. Carpenter ha detto che man mano che il bacino di Delta aumentava, testavano e verificavano costantemente che i loro algoritmi non avessero pregiudizi evidenti. Nel frattempo, Jean Smart, VP per il reclutamento globale presso Hilton Hotels, ha attestato che il suo team testa continuamente i loro sistemi per errori. La relazione di Hilton con il fornitore è di responsabilità reciproca. Se trovano pregiudizi, errori o danni, condividono il peso della responsabilità con l'azienda e poi lo risolvono.
Prossimi passi per l'IA e la diversità
Gli sforzi per migliorare le pratiche di assunzione che gettano una rete ampia richiedono una combinazione di miglioramento e miglioramento regolare delle soluzioni disponibili, implementazione di software di reclutamento per migliorare il processo e convalida continua della sua innocuità. Con le grandi menti attualmente nella tecnologia e il talentuoso bacino di candidati diversificati desiderosi di lavorare, c'è un grande potenziale per il miglioramento e lo sviluppo di questi strumenti inestimabili.
Vuoi saperne di più su Software di reclutamento per la diversità? Esplora i prodotti Reclutamento della diversità.

Courtney Moran
Courtney is a former G2 senior research analyst for HR technologies, whose coverage areas include recruiting, employee engagement, and talent management. Her comprehensive research on employee engagement and HR trends has been quoted in TechRepublic, among other publications.
