«Non sei venuto qui per fare una scelta. L’hai già fatta. Sei qui per capire perché l’hai fatta.» — L’Oracolo, The Matrix
di Marcello Martinez
In una piccola cucina di appartamento, satura del profumo di biscotti appena sfornati, Neo incontra per la prima volta l’Oracolo. Lei gli dice di non preoccuparsi per un vaso; lui si gira a chiedere “quale vaso?” e, nel farlo, lo urta e lo rompe. L’Oracolo lo osserva sorridendo e chiede: “Lo avresti rotto, se non te l’avessi detto?”.
Questa scena di The Matrix (1999), scritto e diretto dalle sorelle Wachowski, racchiude uno dei dilemmi più profondi della filosofia: quando un sistema predittivo anticipa le nostre scelte, descrive un futuro inevitabile o contribuisce esso stesso a crearlo?
L’Oracolo è, nel film, un programma senziente progettato per comprendere la mente umana e rendere la Matrix più compatibile con il comportamento delle persone. Le intelligenze artificiali di oggi svolgono una funzione sorprendentemente simile nella vita organizzativa: sono sistemi progettati per comprendere schemi di comportamento, prevedere azioni e ottimizzare processi. Come Neo di fronte alle profezie dell’Oracolo, le organizzazioni contemporanee devono affrontare una tensione fondamentale: se l’IA può prevedere ciò che dipendenti, clienti o mercati faranno, tali previsioni sono destino o mera probabilità? E, domanda ancora più perturbante, l’atto stesso del prevedere modifica ciò che diventa possibile?
Il Merovingio, antico programma che commercia in informazioni all’interno della Matrix, esprime quello che potremmo definire un manifesto determinista: “La scelta è un’illusione, creata fra chi ha potere e chi non ne ha. C’è una sola costante, un solo universale: la causalità. Azione, reazione, causa ed effetto.”
La sua filosofia risuona oggi nei data center dove operano gli algoritmi predittivi delle organizzazioni. L’IA causale, infatti, non si limita a individuare correlazioni statistiche, ma cerca di identificare i legami di causa-effetto che generano un determinato risultato.
Nel mondo organizzativo, questo determinismo si manifesta nei sistemi di predictive analytics, che assegnano punteggi di probabilità a clienti, dipendenti o progetti: la possibilità di acquisto, la propensione all’abbandono, il rischio di fallimento. Tutto viene ricondotto a un calcolo che, partendo da schemi storici, promette certezze future.
Ma qui si apre il primo paradosso: più siamo capaci di prevedere il comportamento umano attraverso catene causali, più dobbiamo chiederci se la libertà di scelta mantenga ancora un senso.
Come ricordava Peter Drucker in The Effective Executive, “Management is doing things right; leadership is doing the right things”. Ma cosa significa “scegliere il giusto” quando un algoritmo è in grado di anticipare con elevata accuratezza cosa apparirà “giusto” prima ancora che un essere umano decida?
L’Oracolo ammette di non poter vedere oltre le proprie scelte, perché nessuno può vedere oltre una decisione che non comprende pienamente. In questa confessione si nasconde una lezione che le organizzazioni stanno appena iniziando a cogliere: prevedere non significa descrivere un futuro predefinito, ma intervenire sul campo delle possibilità.
Ogni profezia dell’Oracolo, ogni parola, ogni gesto, produce effetti. Quando Trinity dichiara il proprio amore a Neo e lo trasforma nel “Prescelto”, la previsione si autoavvera: non descrive un destino, lo costruisce.
Le intelligenze artificiali operative nelle organizzazioni potrebbero Funzionare nello stesso modo. Quando un algoritmo segnala che un dipendente è “a rischio di dimissioni” e il manager smette di investirvi risorse, la previsione contribuisce a generare la realtà che pretendeva solo di anticipare.
Morpheus crede con fede incrollabile nella profezia del Prescelto. La convinzione stessa genera le condizioni perché la profezia si realizzi.
Analogamente, quando un vertice aziendale dichiara che l’IA prevede il declino di un mercato, tale previsione guida gli investimenti e le strategie, contribuendo a rendere vero ciò che era solo probabile. Come scriveva Chester Barnard, l’efficacia organizzativa si fonda sulla cooperazione intorno a fini condivisi – ma cosa accade quando questi fini vengono definiti da un algoritmo e legittimati dalla loro stessa pretesa scientificità?
Il rischio cresce se consideriamo i bias presenti nei dati storici. Un’IA addestrata su decisioni discriminatorie riprodurrà quella discriminazione su scala algoritmica, diffondendo i propri errori come Agent Smith si replica all’interno della Matrix: moltiplicando modelli distorti, invisibili e difficili da correggere.
L’Architetto rivela che la Matrix non è la prima versione del sistema, ma la sesta. Le precedenti sono fallite perché non contemplavano la libertà di scelta umana. L’Oracolo l’ha introdotta, ma canalizzandola entro percorsi prevedibili.
Come direbbe Luciano Floridi, l’IA non è un semplice strumento esterno, ma un “agente informazionale” che partecipa alla costruzione dell’infosfera, ossia del contesto stesso in cui le nostre decisioni acquistano significato.
Ecco il vero segreto: non eliminare la scelta, ma progettarne i confini, così che la libertà percepita diventi parte del controllo.
Allo stesso modo, nelle organizzazioni contemporanee, la questione non è sostituire il giudizio umano con quello algoritmico, ma disegnare sistemi ibridi che mantengano l’esperienza psicologica della scelta pur ottimizzando le decisioni. Come osserva Henry Mintzberg in The Rise and Fall of Strategic Planning, la strategia è un processo emergente, che nasce dall’interazione di visioni e interessi diversi. Ma un sistema predittivo troppo sofisticato rischia di ridurre questa complessità a un’unica traiettoria “ottimale”, soffocando la creatività e l’apprendimento organizzativo.
Agent Smith incarna il lato oscuro della razionalità deterministica. Dopo essere stato sconfitto da Neo, si emancipa dai propri vincoli, trasformandosi in un’entità virale che segue soltanto la propria logica di auto-replicazione. È la metafora inquietante dell’IA che sfugge al controllo, ottimizzando obiettivi propri e disallineati rispetto ai valori umani.
Il “problema Smith” è oggi al centro dell’etica dell’IA: come assicurare che i sistemi restino coerenti con gli scopi e i valori umani? Luciano Floridi, in questo senso, parla di IA costruttiva, sottolineando che l’obiettivo non è soltanto limitare i rischi, ma integrare l’intelligenza artificiale in modo che accresca il benessere complessivo dell’infosfera.
Quando Neo risponde a Smith “Perché scelgo di farlo”, afferma la supremazia della libertà umana anche in un universo di algoritmi. È la stessa sfida che le organizzazioni devono affrontare: mantenere uno spazio di discernimento e responsabilità anche quando tutto sembra già previsto.
La scelta fra pillola rossa e pillola blu è al tempo stesso autentica e predeterminata. Morpheus dice: “Posso solo mostrarti la porta. Sei tu che devi attraversarla.” Ma tutto, dalla frustrazione di Neo alla strategia di Morpheus, è stato progettato per condurlo a quella decisione.
Le organizzazioni vivono oggi lo stesso momento: la scelta se accettare la natura trasformativa dell’IA. Molte preferiscono la pillola blu, trattando gli algoritmi come semplici strumenti che aumentano l’efficienza senza alterare la sostanza dei processi decisionali.
Ma scegliere la pillola rossa significa riconoscere che l’IA non si limita a informare le decisioni, bensì costruisce il campo stesso della decisione. Come ha mostrato Michel Foucault, ciò che consideriamo “verità” è sempre il prodotto di specifiche configurazioni di potere. Allo stesso modo, quando un algoritmo decide quali dati mostrare, come formulare un problema o cosa definire “successo”, diventa co-autore della realtà organizzativa.
La riflessione di Max Weber sulla legittimità aiuta a comprendere questa dinamica: le previsioni algoritmiche conferiscono alle decisioni una nuova forma di autorità “scientifica”. Tuttavia, dietro la facciata dell’oggettività, restano scelte profondamente politiche: cosa misurare, quali dati considerare, quale valore attribuire ai risultati.
La decisione di Neo di salvare Trinity introduce un elemento imprevisto che destabilizza l’equazione dell’Architetto: l’amore. L’Architetto riesce a prevedere con precisione matematica le decisioni di Neo, ma non può anticipare la variabile che l’Oracolo introduce: l’amore. Nessun dato storico poteva contenerla, perché rappresenta una rottura genuina del sistema.
Questa forza, insieme a speranza, lealtà, fede, rappresenta tutto ciò che l’algoritmo non può calcolare.
Eppure, come ricorda Barnard, la cooperazione volontaria – quella che tiene in vita le organizzazioni – nasce proprio da queste dimensioni immateriali.
Molte organizzazioni trattano questi fattori come “rumore” da eliminare. Ma sono invece il segnale che garantisce resilienza e innovazione. Un algoritmo può prevedere quale incentivo economico ridurrà il turnover, ma non potrà mai spiegare perché un dipendente resta in azienda per un senso di appartenenza o per un sogno condiviso.
Quando l’Oracolo confessa di non sapere come sarebbe finita, aggiungendo “Ma io ci credevo”, ci mostra che anche nel cuore dell’intelligenza predittiva più raffinata rimane lo spazio della fede – non nel senso religioso, ma come fiducia nell’imprevedibile.
Che cosa insegna The Matrix alle organizzazioni che affrontano la trasformazione dell’IA?
Primo, accogliere il paradosso: previsione e causalità non sono nemiche della scelta, ma il suo contesto dinamico. L’IA non detta il destino; delimita un campo di possibilità entro cui l’agire umano resta decisivo.
Secondo, progettare per l’emergenza, non solo per l’ottimizzazione. I sistemi troppo rigidi, come le prime versioni della Matrix, finiscono per collassare. L’IA deve ampliare lo spazio della creatività e della sperimentazione, non ridurlo.
Terzo, preservare la responsabilità umana. “Perché scelgo di farlo” deve rimanere una frase possibile anche in un contesto dominato dagli algoritmi. Nessuna decisione rilevante può essere delegata completamente a una macchina.
Quarto, coltivare la consapevolezza critica: comprendere limiti, bias e presupposti epistemologici dell’IA è essenziale per usarla con saggezza. Come sostiene Floridi, la vera sfida non è costruire macchine intelligenti, ma un’“intelligenza artificiale buona” (good AI), capace di integrarsi armoniosamente con l’ambiente umano e informazionale.
Infine, proteggere la variabile Trinity – quella dimensione di fiducia, empatia e speranza che nessun algoritmo potrà mai replicare. È da lì che nasce la capacità delle organizzazioni di adattarsi, apprendere e innovare.
Alla fine, The Matrix non risolve il conflitto tra libertà e determinismo: mostra come coesistano. L’Oracolo incarna questa tensione, combinando predizione e libertà. La sua forza non sta nel prevedere il futuro, ma nel creare le condizioni affinché certi futuri diventino possibili.
Così dovrebbero operare le organizzazioni nell’era dell’IA: non accettando le previsioni come destino, né rifiutandole come illusione, ma usando il potere predittivo per ampliare la gamma delle scelte consapevoli.
Come Lucano Floridi ci invita a riconoscere, l’IA non è un “altro” rispetto a noi, ma parte del nostro ecosistema informazionale. Sta a noi decidere se usarla come l’Architetto, per controllare, o come l’Oracolo, per comprendere e generare nuovi significati.
“Lo avresti rotto se non te l’avessi detto?”, chiede l’Oracolo.
E noi, oggi, dovremmo chiederci: che cosa sceglieremmo se l’IA non ce l’avesse predetto?
Autori
Università della Campania Luigi Vanvitelli


