11 ottimi usi per i filtri del caffè che non hanno nulla a che fare con il caffè
Nov 08, 20232023
Oct 28, 2023Classifiche NBA Draft Prospect 2023: rapporti di scouting per Victor Wembanyama e altri migliori giocatori su Big Board
Dec 20, 2023Classifiche NBA Draft Prospect 2023: rapporti di scouting per Victor Wembanyama e altri migliori giocatori su Big Board
May 26, 2023Minicamp obbligatori NFL 2023: le trame più grandi per 49ers, Cowboys e altre 7 squadre inizieranno questa settimana
Jul 23, 2023Le affermazioni che l'intelligenza artificiale può aumentare la diversità sul posto di lavoro sono "false e pericolose"
Gli ultimi anni hanno visto l’emergere di strumenti di intelligenza artificiale commercializzati come risposta alla mancanza di diversità nella forza lavoro, dall’uso di chatbot e scraper di CV per individuare potenziali candidati, fino ai software di analisi per i colloqui video.
Coloro che stanno dietro la tecnologia sostengono che essa annulla i pregiudizi umani nei confronti del genere e dell’etnia durante il reclutamento, utilizzando invece algoritmi che leggono il vocabolario, i modelli linguistici e persino le microespressioni facciali per valutare enormi gruppi di candidati per il giusto tipo di personalità e “cultura adatta”. "
Tuttavia,in un nuovo rapporto pubblicatoin Filosofia e Tecnologia, i ricercatori del Centre for Gender Studies di Cambridge sostengono che queste affermazioni fanno sì che alcuni usi dell'intelligenza artificiale nelle assunzioni siano poco meglio di una "pseudoscienza automatizzata" che ricorda la fisionomia o la frenologia: le convinzioni screditate secondo cui la personalità può essere dedotta dai lineamenti del viso e dalla forma del cranio .
Dicono che sia un pericoloso esempio di “tecnosoluzionismo”: ricorrere alla tecnologia per fornire soluzioni rapide a problemi di discriminazione profondamente radicati che richiedono investimenti e cambiamenti nella cultura aziendale.
In effetti, i ricercatori hanno lavorato con un team di studenti universitari di informatica di Cambridge per sfatare queste nuove tecniche di assunzione costruendo uno strumento di intelligenza artificiale modellato sulla tecnologia.
La "Macchina della personalità" dimostra come cambiamenti arbitrari nell'espressione facciale, nell'abbigliamento, nell'illuminazione e nello sfondo possano dare letture della personalità radicalmente diverse, e quindi potrebbero fare la differenza tra rifiuto e avanzamento per una generazione di persone in cerca di lavoro in lizza per posizioni di laurea.
Il team di Cambridge afferma che l’uso dell’intelligenza artificiale per restringere il pool di candidati potrebbe in definitiva aumentare l’uniformità piuttosto che la diversità nella forza lavoro, poiché la tecnologia è calibrata per cercare il “candidato ideale” immaginato dal datore di lavoro.
Ciò potrebbe vedere coloro che hanno la giusta formazione e il giusto background “vincere gli algoritmi” replicando comportamenti che l’intelligenza artificiale è programmata per identificare e portando tali atteggiamenti sul posto di lavoro, affermano i ricercatori.
Inoltre, man mano che gli algoritmi vengono affinati utilizzando i dati passati, sostengono che i candidati considerati più adatti probabilmente finiranno per diventare quelli che somigliano di più alla forza lavoro attuale.
"Siamo preoccupati che alcuni venditori avvolgano i prodotti 'olio di serpente' in una confezione lucida e li vendano a clienti ignari", ha affermato la coautrice Dott.ssa Eleanor Drage.
"Affermando che il razzismo, il sessismo e altre forme di discriminazione possono essere eliminati dal processo di assunzione utilizzando l'intelligenza artificiale, queste aziende riducono la razza e il genere a dati insignificanti, piuttosto che a sistemi di potere che modellano il modo in cui ci muoviamo nel mondo. ."
I ricercatori sottolineano che questi strumenti di reclutamento basati sull’intelligenza artificiale sono spesso proprietari – o “scatola nera” – quindi come funzionano è un mistero.
"Anche se le aziende potrebbero non agire in malafede, c'è poca responsabilità per il modo in cui questi prodotti vengono costruiti o testati", ha affermato Drage. "In quanto tale, questa tecnologia, e il modo in cui viene commercializzata, potrebbero rivelarsi pericolose fonti di disinformazione su come il reclutamento possa essere" sbilanciato "e reso più equo".
Nonostante alcune resistenze (ad esempio, la proposta di legge sull'intelligenza artificiale proposta dall'UE classifica i software per le assunzioni basati sull'intelligenza artificiale come "ad alto rischio"), i ricercatori affermano che gli strumenti realizzati da aziende come Retorio e HIreVue vengono implementati con scarsa regolamentazione e indicano sondaggi che suggeriscono l'uso dell'intelligenza artificiale nelle assunzioni sta crescendo a dismisura.
Uno studio del 2020 su 500 organizzazioni di vari settori in cinque paesi ha rilevato che il 24% delle aziende ha implementato l’intelligenza artificiale a fini di reclutamento e il 56% dei responsabili delle assunzioni prevede di adottarla nel prossimo anno.
Un altro sondaggio condotto su 334 leader nel settore delle risorse umane, condotto nell’aprile 2020, mentre la pandemia prendeva piede, ha rilevato che l’86% delle organizzazioni stava incorporando nuove tecnologie virtuali nelle pratiche di assunzione.
"Questa tendenza era... già in atto all'inizio della pandemia, e il passaggio accelerato al lavoro online causato da COVID-19 vedrà probabilmente in futuro un maggiore utilizzo di strumenti di intelligenza artificiale da parte dei dipartimenti delle risorse umane", ha affermato il coautore Dr. Kerry Mackereth, che presenta il podcast Good Robot con Drage, in cui il duo esplora l'etica della tecnologia.