AI Governance nell'Executive Search | Silvio Fontaneto
Chi verifica i verificatori? Riflessioni su etica, trasparenza e governance dell'IA nella ricerca di profili C-Level.
EXECUTIVE SEARCHLEADERSHIP & MANAGEMENTITALIANO


Il Dilemma del 2026
A maggio 2025, un tribunale federale californiano ha certificato una class action contro Workday, una delle più grandi piattaforme AI per recruiting. L'accusa? Il sistema AI discriminava sistematicamente candidati oltre i 40 anni.
Derek Mobley, uno dei querelanti, racconta di essere stato rifiutato automaticamente centinaia di volte, con notifiche di reiezione che arrivavano anche durante l'orario notturno chiaro segnale di screening automatico senza supervisione umana.
Questo non è un caso isolato. È il sintomo di un problema sistemico che sta emergendo nel 2026.
I dati parlano chiaro:
98% delle Fortune 500 usa qualche forma di AI nei processi di hiring (fonte: recenti stime settore)
Maggio 2025: Primo caso di class action certificata per bias AI in hiring (Mobley v. Workday)
Marzo 2025: ACLU Colorado presenta reclamo contro HireVue per discriminazione AI verso candidati sordi e nativi americani
Agosto 2025: Studio Brookings rivela bias gender e razziale in tutti i principali LLM usati per screening CV
La domanda non è più "dobbiamo usare l'AI?". È: "Chi garantisce che l'AI faccia ciò che dichiara?"
La Fiction Che Anticipa la Realtà
Mentre scrivevo "Il Protocollo Vector" il secondo libro della trilogia che esplora scenari estremi di manipolazione AI nei processi di talent assessment, la realtà continuava a raggiungermi con casi sempre più preoccupanti.
Nel romanzo, Marco Santini scopre che ARBITER, il sistema creato per proteggere l'integrità corporate, è stato corrotto per fare esattamente l'opposto. Insieme a suo figlio Luca, deve affrontare una domanda impossibile: come si governa un'AI che è diventata più intelligente di chi dovrebbe controllarla?
La fiction e la realtà non sono poi così distanti.
Nei primi otto mesi del 2025, abbiamo assistito a:
Caso Workday (Maggio 2025) La piattaforma AI, usata da migliaia di aziende, confrontava le competenze richieste nelle job description con i CV dei candidati, generando raccomandazioni automatiche. Risultato: discriminazione sistematica per età, razza e disabilità.
Caso HireVue (Marzo 2025) Sistema AI che conduceva video-interviste automatiche e forniva score basati su analisi facciale e vocale. Problema: completamente inaccessibile per candidati sordi, e performance degradata per minoranze etniche con accenti o speech pattern diversi.
Studio Stanford (Ottobre 2025) I ricercatori hanno scoperto che gli AI resume-screening tools davano sistematicamente rating più alti a candidati uomini anziani rispetto a donne e giovani, nonostante CV identici generati dagli stessi dati.
Studio VoxDev (Maggio 2025) Analisi su 361.000 CV fittizi ha rivelato che i principali LLM (GPT-4, Claude, Gemini, Llama) favorivano sistematicamente candidati donna, ma discriminavano uomini neri, anche a parità assoluta di qualifiche.
Come dice Luca a Marco nel libro: "Non puoi governare ciò che non capisci. E se non lo governi tu, qualcun altro lo farà. Per i suoi scopi, non i tuoi."
Il Governance Gap: Tre Livelli di Rischio Documentati
Analizzando i casi reali del 2025, emergono tre livelli di rischio che ogni Board Director e decisore deve conoscere:
LIVELLO 1 — Bias Algoritmico (Rischio Alto)
Caso documentato: Studio Brookings (Agosto 2025) su tre massive text embedding models (E5-Mistral, GritLM, SFR-Embedding-Mistral) ha rivelato bias gender in 63% dei test: uomini e donne venivano selezionati in egual misura solo nel 37% dei casi.
Meccanismo del bias: L'AI "impara" da dataset storici. Se storicamente i CEO erano per l'80% uomini, l'AI replica questo pattern considerandolo "normale" anche quando le qualifiche sono identiche.
Red Flag: Il vendor non può (o non vuole) spiegare come funziona lo scoring. Risposta tipo: "È machine learning, impara dai dati."
Impact: Perdi talenti eccellenti, rischi cause da milioni (vedi Mobley v. Workday), violazioni compliance in arrivo con EU AI Act (marzo 2026).
LIVELLO 2 — Black Box Decision (Rischio Critico)
Caso documentato: Nel caso Workday, i candidati ricevevano reiezioni automatiche senza possibilità di capire perché. Il sistema AI generava raccomandazioni che i recruiter seguivano ciecamente, senza capacità di override o contestualizzazione.
Red Flag: "Proprietary algorithm, non possiamo condividere la logica decisionale."
Impact: Deleghi decisioni strategiche da centinaia di migliaia di euro a un sistema che nessuno, nemmeno chi lo usa, comprende davvero.
LIVELLO 3 — Discriminazione Intersezionale (Rischio Sistemico)
Caso documentato: Lo studio VoxDev (Maggio 2025) su 5 LLM leader ha rivelato pattern di bias intersezionale complesso: i modelli favorivano donne bianche, ma discriminavano fortemente uomini neri, anche con qualifiche identiche.
Questo significa che l'AI non ha solo "un" bias (es. gender), ma bias multipli che si combinano in modi imprevedibili a seconda del contesto.
Red Flag: Il vendor non ha mai testato bias intersezionale (gender + race + age combinati).
Impact: Rischio legale esponenziale + danno reputazionale quando i pattern emergono pubblicamente.
Framework Pratico: La AI Governance Checklist
Basandomi su quanto emerso dai casi legali e dagli studi scientifici del 2025, ecco le domande che ogni organizzazione dovrebbe fare al proprio vendor AI:
✅ TRASPARENZA
Q1: "Come funziona il vostro algoritmo?" (in parole semplici)
❌ Red Flag: "È proprietario, non possiamo dirlo"
✅ Green Flag: "Usiamo NLP per analizzare CV, matching competenze vs job description, pesato su criteri X, Y, Z che possiamo mostrare"
Q2: "Posso vedere il reasoning per cui candidato A ha score 85 e candidato B ha 60?"
❌ Red Flag: "Il sistema calcola internamente"
✅ Green Flag: "Sì, ecco breakdown: competenze tech 90/100, leadership 75/100, fit settore 80/100"
✅ AUDITABILITÀ
Q3: "Avete testato per bias gender/age/ethnicity/disability?"
❌ Red Flag: "L'AI è neutra per design"
✅ Green Flag: "Sì, audit trimestrale da terza parte indipendente, certificazione disponibile"
Q4: "Chi ha costruito il training dataset e come avete garantito balance?"
❌ Red Flag: "Dati pubblici da LinkedIn"
✅ Green Flag: "Dataset curato da diversity experts, bilanciato per demografia, validato per bias pre-deployment"
✅ HUMAN OVERSIGHT
Q5: "Cosa succede se voglio assumere un candidato che l'AI ha scartato?"
❌ Red Flag: "L'AI è ottimizzata, sconsigliamo override"
✅ Green Flag: "L'AI è consultiva, non decisionale. Potete sempre sovrascrivere. Tracciamo override per migliorare sistema"
Q6: "Il vostro sistema è stato coinvolto in lawsuit o reclami EEOC?"
❌ Red Flag: Evitano la risposta o dicono "non possiamo commentare"
✅ Green Flag: Trasparenza completa su eventuali contestazioni e come le hanno risolte
Cosa Dice la Ricerca Scientifica (2025)
Nel 2025 sono usciti studi cruciali che ridefiniscono la conversazione su AI e fairness:
Studio University of Washington (Novembre 2025) 528 partecipanti hanno lavorato con sistemi AI simulati per selezionare candidati. Risultato: quando l'AI mostrava bias razziale, gli umani lo replicavano nelle loro decisioni. Senza AI, o con AI neutrale, le scelte erano imparziali.
Key finding: L'AI biased contamina il giudizio umano. Non basta avere "human-in-the-loop" se l'umano si fida ciecamente dell'AI.
Studio HBR (Dicembre 2025) Ricerca triennale su multinazionale consumer goods ha rivelato che il loro sistema algoritmico aveva imposto una definizione rigida di "fairness", escludendo il giudizio locale dei manager. Risultato: pool candidati ristretto, manager insoddisfatti, perdita di talenti.
Key finding: Fairness (equità) non è "embedded in code". È negoziata dalle persone che progettano e usano il sistema.
Studio Brookings (Agosto 2025) Analisi su 40.000 comparazioni resume-job description attraverso 3 LLM ha mostrato bias gender in 63% dei casi, con variazioni significative per settore (tech vs non-tech, corporate vs startup).
Key finding: Non esiste un "LLM neutrale". Tutti hanno bias, ma diversi a seconda del contesto.
La Regolamentazione Sta Arrivando
California (Ottobre 2025) Nuove regulation che chiariscono come le leggi anti-discriminazione si applicano agli AI tools in hiring. Richiesto: disclosure trasparente quando AI è usata per decisioni di employment.
New York City (già in vigore) Legge locale richiede audit annuale di bias per automated employment decision tools + pubblicazione risultati audit.
Colorado (Giugno 2026) Colorado AI Act richiederà agli sviluppatori e utenti di AI hiring tools di usare "reasonable care" per prevenire discriminazione algoritmica.
EU AI Act (Marzo 2026) L'AI Act europeo entrerà in vigore con requisiti stringenti di trasparenza e accountability per high-risk AI systems inclusi quelli usati per hiring.
Cosa Insegna "Il Protocollo Vector"
Il 30 gennaio esce "Il Protocollo Vector", il secondo libro della trilogia.
Marco e Luca devono rispondere alla domanda più difficile: come governi un'AI che è più efficace di qualsiasi umano, ma impossibile da controllare completamente?
La risposta che esploro nel romanzo non è "distruggiamo l'AI". È molto più complessa e molto più realistica per il 2026.
Perché la verità è questa: l'AI non è il nemico.
I casi reali del 2025 lo dimostrano: il problema non è l'AI in sé, ma l'assenza di:
Trasparenza: Nessuno capisce come funziona il sistema
Audit: Nessuno verifica che faccia ciò che dichiara
Human oversight: Nessuno può contestare le decisioni AI
Nel libro porto questi temi all'estremo per mostrare cosa può succedere quando perdiamo completamente il controllo.
Nella realtà, fortunatamente, abbiamo ancora tempo per implementare governance seria — ma il tempo sta finendo.
Azione Pratica: Da Dove Iniziare
Se sei un Board Director, PE Partner, CEO o CHRO che usa AI per executive search:
QUESTA SETTIMANA:
Verifica se il tuo vendor AI è stato coinvolto in lawsuit o reclami (cerca su PACER, EEOC filings)
Chiedi le 6 domande della checklist al tuo vendor
Se non sanno rispondere o sono evasivi, hai un problema di governance
QUESTO MESE:
Richiedi documentazione audit indipendente del sistema AI
Verifica training dataset per bias demografico
Implementa policy: "Ogni AI recommendation deve avere human validation con reasoning documentato"
QUESTO TRIMESTRE:
Crea AI Governance Committee (Board + CHRO + Legal + Tech)
Commissiona audit esterno da terza parte specializzata
Prepara compliance per EU AI Act (marzo 2026) e nuove regulation US
I Segnali di Warning (Basati su Casi Reali)
Dai casi legali e studi del 2025, questi sono i red flag che predicono problemi:
🚩 Reiezioni automatiche fuori orario lavorativo (vedi caso Workday)
🚩 Impossibilità di ottenere spiegazione del scoring (black box totale)
🚩 Vendor rifiuta audit indipendente o non ha certificazioni
🚩 Nessun meccanismo di override umano o override scoraggiato
🚩 Risultati sempre simili (stessi background, università, settori) senza varianza
🚩 Vendor usa frasi come "l'AI è neutra per design" o "elimina il bias umano" (studi dimostrano il contrario)
Se vedi 3+ di questi segnali, fermati. Rischi di replicare gli errori che hanno portato a cause milionarie nel 2025.
Uno Sguardo al Futuro: Cosa Aspettarsi
2026 sarà l'anno del reckoning per AI in hiring.
Tre trend che vedo emergere:
Explosion di litigation Il caso Workday ha aperto le porte. Aspettiamoci decine di class action nei prossimi 12 mesi.
Regulatory crackdown EU AI Act + nuove leggi US (California, Colorado, New York) cambieranno le regole del gioco.
Shift da "AI replacement" a "AI augmentation" Le aziende smart capiranno che AI senza supervisione umana è un rischio legale inaccettabile.
Chi si muove ora per implementare governance seria avrà vantaggio competitivo. Chi aspetta rischia di diventare il prossimo caso di studio negativo.
Conclusione: Chi Controlla i Controllori?
Nel 2026, l'AI è ovunque nell'executive search. E questo può essere positivo: democratizza l'accesso ai talenti, riduce tempi, elimina alcuni bias inconsci umani.
Ma i dati del 2025 ci hanno insegnato una lezione fondamentale: AI senza governance è bias at scale.
Il caso Workday, lo studio Brookings, la ricerca VoxDev, tutti convergono sulla stessa verità:
L'AI può discriminare
L'AI può replicare bias storici
L'AI può influenzare negativamente il giudizio umano
Ma tutto questo è prevenibile con:
Trasparenza algoritmica
Audit indipendenti
supervisione umana qualificata
Compliance proattiva
La domanda non è "usiamo AI o no?". È: "Chi garantisce che l'AI lavori per noi, non contro di noi?"
Nel "Protocollo Vector" esploro scenari estremi attraverso la narrativa per mostrare cosa può andare storto.
Nel mio lavoro, mi trovo sempre più spesso a confrontarmi con queste domande: come si valuta un candidato quando l'AI ha già pre-filtrato il 90% del pool? Come si garantisce che i sistemi non abbiano bias nascosti? Come si costruisce fiducia in processi sempre più automatizzati?
Sto studiando questi casi in profondità proprio per questo. Non ho tutte le risposte, ma credo che condividere pubblicamente i learnings dai casi del 2025 possa aiutare chi è alle prese con le stesse sfide.
Perché alla fine, l'AI è solo uno strumento. La responsabilità delle decisioni e delle conseguenze resta nostra.
Silvio Fontaneto Author "Stop Fearing AI" & "The Vector" Trilogy AI Strategy Advisor for PE/VC | Executive Search
📚 Risorse
Trilogia Vector (Marco Santini):
"Il Vettore" (pubblicato novembre 2025): Come un sistema AI per executive search impara a manipolare le decisioni. Il libro che ha anticipato i casi reali del 2025 [Link IT] [Link EN]
"Il Protocollo Vector" (esce 30 gennaio 2026): Marco e Luca devono decidere come governare un'AI diventata incontrollabile. Scenario estremo su AI governance
"Il Paradosso Vector" (2027): Il capitolo finale della trilogia
Guide Pratiche (Silvio Fontaneto):
"Smetti di Temere l'AI": Framework pratico per implementare AI in azienda responsabilmente[Link IT]
"Stop Fearing AI" International Edition: Framework pratico per implementare AI in azienda responsabilmente[Link EN]
"Stop Fearing AI" US Edition: Framework pratico per implementare AI in azienda responsabilmente[Link EN]
"AI in Tasca per HR" (esce 14 febbraio): 50 ricette pratiche per HR leaders, con focus su AI governance
Fonti Citate:
Mobley v. Workday, Inc., 2025 WL 1424347 (N.D. Cal. May 16, 2025)
ACLU Colorado Complaint vs HireVue & Intuit (March 2025)
Brookings Institution: "Gender, Race, and Intersectional Bias in AI Resume Screening" (August 2025)
VoxDev: "AI hiring tools exhibit complex gender and racial biases" (May 2025)
University of Washington: "People mirror AI systems' hiring biases" (November 2025)
Harvard Business Review: "New Research on AI and Fairness in Hiring" (December 2025)
💬 Continua la Conversazione
Domanda per te: Se usi AI per hiring (a qualsiasi livello), hai mai chiesto al vendor di mostrarti il reasoning dietro le raccomandazioni?
Raccontami la tua esperienza nei commenti. Ogni storia aiuta a costruire best practice condivise.
P.S. Se sei Board Director, PE Partner o CHRO alle prese con queste sfide, parliamone. Sto mappando best practice emergenti dai casi del 2025 e sarei felice di fare uno scambio di idee. A volte le domande giuste sono più preziose delle risposte preconfezionate.
Prossimo articolo (14 febbraio): "AI in HR: come riconoscere un CHRO che non bluffa sull'intelligenza artificiale"
Iscriviti alla newsletter "AI Impact on Business" per non perderlo.