Critica della Ragione Artificiale: L’Etica dell’IA nell’epoca della scissione tra Agenzia e Intelligenza

Autore

Centro Studi Paul H. Appleby

Data

3 Novembre 2025


​Oltre l’Automa Intelligente – La necessità di una Nuova Filosofia per l’IA

​L’appello lanciato da Luciano Floridi dalle pagine de La Repubblica per una “critica della ragione pratica” applicata all’intelligenza artificiale (IA) non è una semplice metafora, ma una profonda necessità filosofica del nostro tempo. La rivoluzione digitale ha reso le nostre vite, dall’istruzione al commercio, dalla sanità alle relazioni sociali, inimmaginabili senza le tecnologie, i servizi e i prodotti che ne derivano. Questa trasformazione epocale solleva dubbi e preoccupazioni, ma dischiude anche straordinarie opportunità. La tesi centrale che deve guidare la nostra comprensione, e che costituisce il fondamento di questa analisi, è quella avanzata da Floridi nel suo libro Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide: l’IA rappresenta un “divorzio senza precedenti tra agenzia e intelligenza”. Questo concetto, secondo cui le macchine possono agire efficacemente nel mondo senza possedere alcuna coscienza o comprensione, offre la chiave per sviluppare un quadro etico più maturo e adeguato.

​Questo rapporto si articola in tre parti interconnesse. La prima esplorerà in profondità i fondamenti filosofici della tesi di Floridi, analizzandone le implicazioni e le risonanze kantiane. La seconda parte arricchirà questa prospettiva attraverso le critiche materialiste e socio-politiche di studiose che hanno messo a nudo i costi nascosti e i pregiudizi sistemici dell’IA. Infine, la terza parte esaminerà i modelli di governance emergenti, proponendo una sintesi che unisce chiarezza filosofica, giustizia sociale e sostenibilità ambientale come pilastri indispensabili per un’etica dell’IA all’altezza delle sue sfide.

​Parte I: La tesi Floridiana – L’Intelligenza Artificiale come Agenzia senza Intelligenza

​Questa sezione stabilisce le fondamenta filosofiche del rapporto, decostruendo l’argomento centrale di Luciano Floridi per fornire una nuova lente attraverso cui comprendere e valutare l’intelligenza artificiale.

​Decostruire il Mito dell’IA “Intelligente”

​Il fulcro del pensiero di Floridi risiede nella distinzione cruciale tra due concetti spesso confusi: agenzia e intelligenza. L'”agenzia” (agency) è definita come la capacità di un sistema di interagire con il proprio ambiente, imparare dal feedback ricevuto e modificare di conseguenza il proprio comportamento per raggiungere con successo un obiettivo. Questa capacità è nettamente distinta dall'”intelligenza”, che implica una comprensione genuina, coscienza e consapevolezza dei propri processi. I moderni sistemi di IA, inclusi i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, non “pensano” nel senso umano del termine. Essi, piuttosto, sfruttano sofisticate tecniche statistiche per identificare correlazioni e schemi all’interno di vasti insiemi di dati. L’analogia di Floridi è illuminante: uno smartphone può giocare a scacchi meglio di qualsiasi essere umano, eppure possiede “zero intelligenza”, non più di una calcolatrice tascabile. Il successo dell’IA risiede quindi nella sua ingegnerizzazione, non nella replica della cognizione.

​Una conseguenza fondamentale della natura statistica dell’IA è la sua intrinseca incapacità di fornire certezze. Un sistema di IA può offrire solo ciò che è “più probabile” o “quasi certo”, ma mai una verità assoluta. Questa limitazione ha profonde implicazioni per l’applicazione di tali tecnologie in contesti decisionali critici, sfidando la nozione di IA come arbitro oggettivo e infallibile.

​Il successo dell’IA non è, tuttavia, una funzione esclusiva delle sue capacità computazionali. Esso dipende in modo cruciale da una profonda riprogettazione del nostro ambiente per accomodare i suoi limiti. Come osserva Floridi, “stiamo adattando il mondo a queste macchine, non il contrario”. L’esempio delle auto a guida autonoma è emblematico: non stiamo costruendo IA capaci di navigare la caotica complessità degli ambienti di guida umani; stiamo piuttosto ridisegnando le nostre strade, le nostre leggi e le nostre infrastrutture per creare un contesto semplificato e prevedibile in cui un agente non-intelligente possa operare con successo. Questo processo di adattamento si estende ben oltre il mondo fisico. Stiamo strutturando i dati, progettando interfacce e persino modificando il nostro linguaggio per renderlo più facilmente processabile dalle macchine, creando un mondo “a misura di robot”. Ciò rappresenta un cambiamento epocale nel luogo dell’adattamento. Storicamente, l’intelligenza umana era la forza adattiva per eccellenza. Ora, stiamo impiegando la nostra intelligenza per creare un mondo meno complesso, abilitando così la proliferazione di un’agenzia artificiale. Il “potere” percepito dell’IA è, quindi, un fenomeno ibrido, nato sia dalla sua forza computazionale sia dalla nostra volontà collettiva di creare una “zuppa digitale”  in cui possa prosperare. Di conseguenza, l’onere etico si espande dalla progettazione dell’IA stessa alla progettazione del mondo che stiamo costruendo attorno ad essa.

​Implicazioni etiche della Nuova Agenzia Artificiale: Una Critica della Ragione Pratica

​L’allusione di Floridi a una “critica della ragione pratica” per l’IA evoca direttamente il pensiero di Immanuel Kant, dal cui punto di vista un Agente Morale Artificiale (AMA) è una impossibilità filosofica. Per Kant, la vera azione morale scaturisce dall’autonomia: la capacità di un agente razionale di dare a sé stesso la legge morale. I sistemi di IA, al contrario, sono fondamentalmente eteronomi, poiché i loro principi operativi sono determinati esternamente da programmatori umani. Un’IA manca di una “volontà” in senso kantiano, non ha accesso alla legge morale e, pertanto, non può possedere un “senso del dovere” che motivi le sue azioni. Può essere programmata per seguire regole e raggiungere risultati che si allineano con principi etici (legalità), ma non può agire in nome di un principio morale (moralità).

​Poiché l’IA non può essere un agente morale, il compito etico si sposta dalla creazione di macchine morali alla governance delle azioni di agenti potenti ma amorali. Ciò richiede un solido quadro di principi. La ricerca sull’etica dell’IA ha visto una convergenza verso quattro principi fondamentali, mutuati in gran parte dalla bioetica: Beneficenza, Non-maleficenza, Autonomia (umana) e Giustizia. In questo contesto, Floridi introduce il concetto di “soft ethics” come una forma di “etica post-conformità”. Questo si riferisce alle responsabilità etiche che vanno oltre i meri requisiti legali, costituendo la base per un ecosistema di IA affidabile. Tale approccio si collega al concetto politico di “sovranità digitale”, che promuove la distribuzione del controllo sui sistemi digitali per prevenire la concentrazione di potere nelle mani di pochi giganti tecnologici, favorendo così un approccio più democratico alla governance.

​Il progetto stesso di creare una “IA etica” attraverso la programmazione esplicita finisce per rafforzare lo status della tecnologia come strumento non-morale, accentuando, anziché risolvere, la sfida della responsabilità umana. Per comprendere questo paradosso, si deve partire dal fatto che l’obiettivo di molti nel settore è costruire una “IA etica” , spesso interpretato come la programmazione di regole etiche o sistemi di valori. Tuttavia, l’analisi kantiana dimostra che la moralità non consiste nel seguire regole, ma nell’autolegislazione autonoma. Pertanto, ogni volta che uno sviluppatore codifica un vincolo etico in un’IA (ad esempio, “non produrre risultati distorti”), non fa che rafforzarne l’eteronomia. La rende uno strumento più sofisticato, ma un’entità meno autonoma e, quindi, meno morale. L’implicazione è che la ricerca di una “IA etica” tramite programmazione ci allontana ulteriormente dalla possibilità di un agente morale artificiale. Questo riconfigura l’intero dibattito: l’obiettivo non dovrebbe essere quello di abdicare la responsabilità morale alle macchine. Al contrario, l’attenzione deve concentrarsi sulla creazione di sistemi trasparenti e contestabili, in cui la responsabilità morale umana sia innegabile e chiaramente localizzata. Il “problema” dell’IA etica non è una sfida tecnica di codifica della morale, ma una sfida socio-politica di mantenimento della responsabilità umana in un’era di potenti sistemi automatizzati.

​Parte II: Potere, Pregiudizio e Politica – Le Critiche Materialiste all’Etica dell’IA

​Questa sezione si sposta dal piano filosofico a quello socio-politico, integrando il lavoro di studiose critiche che sostengono che l’IA non sia una tecnologia astratta, ma una forza materiale che riflette e amplifica le strutture di potere e disuguaglianza esistenti.

​Armi di distruzione Matematica e Redlining Tecnologico

​Cathy O’Neil ha sostenuto in modo convincente che gli algoritmi non sono formule oggettive, ma “opinioni incorporate nella matematica”. Ha coniato il termine “Armi di Distruzione Matematica” (Weapons of Math Destruction, WMD) per descrivere modelli algoritmici caratterizzati da tre proprietà chiave: sono opachi, scalabili e distruttivi. Questi WMD codificano pregiudizi umani e distorsioni storiche all’interno di sistemi software , creando perniciosi circoli viziosi. Un esempio lampante si trova nei sistemi di polizia predittiva, dove modelli addestrati su dati di arresto storicamente distorti portano a una sorveglianza eccessiva delle comunità emarginate. Questo, a sua volta, genera più dati di arresto distorti, che “dimostrano” la correttezza del modello, perpetuando il ciclo.

​Partendo da questo quadro, Safiya Umoja Noble ha sviluppato il concetto di “oppressione algoritmica” per descrivere come i motori di ricerca e altre piattaforme rafforzino il razzismo e il sessismo. Il suo concetto di “redlining tecnologico” descrive il nuovo meccanismo digitale che approfondisce la disuguaglianza sociale, in modo analogo alla storica pratica discriminatoria del redlining nel settore immobiliare e finanziario. L’esempio dei risultati di ricerca distorti e degradanti per la query “Black girls” rende questo fenomeno dolorosamente concreto. Noble sostiene che le affermazioni di neutralità da parte delle aziende tecnologiche mascherano un sistema che privilegia la bianchezza e gli interessi commerciali.

​La distinzione filosofica di Floridi tra agenzia e intelligenza funge da potente strumento analitico per smantellare le pretese di neutralità e oggettività usate per proteggere gli algoritmi distorti. Le aziende tecnologiche spesso difendono i risultati distorti appellandosi alla complessità e alla “neutralità” dei loro algoritmi, implicando che la macchina abbia preso una decisione complessa basata sui dati, trattando così l’IA come un attore intelligente. La tesi di Floridi (“agenzia senza intelligenza”) confuta direttamente questa narrazione, affermando che l’IA ha zero comprensione. Se l’IA non è intelligente, allora i suoi risultati distorti non possono essere il frutto di un qualche imperscrutabile ragionamento macchinico. Possono solo essere il risultato degli input che le sono stati forniti: dati distorti, obiettivi progettati da esseri umani imperfetti e schemi di classificazione carichi di valori. Questo sposta la conversazione da un dibattito tecnico sulla cognizione delle macchine a un dibattito politico su dati, potere e responsabilità, allineandosi perfettamente con le critiche di O’Neil e Noble e rendendo la responsabilità umana ineludibile.

​L’Atlante dell’IA: I costi Planetari della Ragione Artificiale

​Kate Crawford, nel suo Atlas of AI, sostiene che l’IA non è un’entità astratta e disincarnata, ma un’infrastruttura materiale costruita a partire da risorse naturali, lavoro umano ed enormi quantità di energia planetaria. Questa realtà materiale si fonda su una filiera di estrazione che comprende tre componenti fondamentali:

  1. Terra: La devastazione ambientale causata dall’estrazione di minerali come il litio e il cobalto, essenziali per l’hardware, e i rifiuti tossici generati dalla produzione.
  1. Lavoro: Il lavoro umano, spesso invisibile e sfruttato, richiesto in ogni fase del processo: dall’estrazione mineraria all’assemblaggio in fabbrica, fino al “lavoro fantasma” dell’annotazione dei dati e della moderazione dei contenuti.
  1. Dati: L’estrazione di massa di dati dalle vite umane, che Crawford non inquadra come una risorsa neutra, ma come un atto politico di appropriazione.

​L’impronta energetica e idrica di questa infrastruttura è sbalorditiva e in rapida crescita. I data center, il cuore operativo dell’industria dell’IA, sono responsabili di un consumo di risorse che solleva questioni urgenti di sostenibilità.

Tabella 1: L’Impronta Ambientale dei Data Center per l’IA

MetricaRegione/AmbitoDati Attuali (2023/2024)Crescita Prevista (entro il 2030)
Consumo di Elettricità (TWh/anno)Stati Uniti183 TWh (>4% del totale USA)426 TWh
Consumo di Elettricità (TWh/anno)Globale~536 TWh (2% del totale globale)~1,000 TWh
Consumo di Acqua (Miliardi di Galloni/anno)Stati Uniti17 miliardi di galloni16-33 miliardi (solo hyperscale entro il 2028)

Nota: Le proiezioni possono variare in base ai miglioramenti dell’efficienza. L’impatto specifico dell’IA è un motore primario di questa crescita, con una singola query di IA che consuma molta più energia di una ricerca standard.

​Lo sviluppo dell’IA ha creato una fondamentale contraddizione politica. Da un lato, l’IA viene proposta come soluzione a grandi sfide sociali, come il cambiamento climatico, nell’ambito della narrativa “IA per il Bene Sociale”. Dall’altro, i dati quantitativi dimostrano che l’infrastruttura necessaria per addestrare ed eseguire questi modelli consuma una quantità colossale e in crescita esponenziale di energia e acqua, mettendo a dura prova le reti elettriche e contribuendo in modo significativo alle emissioni di carbonio. Ci troviamo di fronte a un conflitto sistemico: stiamo bruciando il pianeta per alimentare le macchine che speriamo possano salvarlo. Questo implica che l’etica dell’IA non può essere separata dalla politica energetica e dalla governance ambientale. Una strategia di IA responsabile è impossibile senza una strategia concorrente per la decarbonizzazione delle reti elettriche che la alimentano e senza l’imposizione di una trasparenza radicale sul consumo di risorse da parte delle aziende tecnologiche. Il “Verde” degli habitat e il “Blu” del digitale non sono solo un potenziale matrimonio futuro; sono attualmente in uno stato di conflitto che deve essere risolto.

​Parte III: verso una “Good AI Society” – Governance, Regolamentazione e Sostenibilità

​Questa parte finale passa dalla critica alla costruzione, esaminando i quadri pratici e le risposte istituzionali in fase di sviluppo per guidare l’IA verso esiti positivi e sintetizzando le scoperte del rapporto in una visione coesa.

​La Risposta Istituzionale: Il Modello di Yale e la Governance Europea

​Il Report of the Yale Task Force on AI offre un caso di studio dettagliato su come un’istituzione leader stia affrontando l’integrazione dell’IA. Le sfide identificate includono la garanzia dell’integrità accademica, la gestione delle “allucinazioni” dell’IA e dei risultati distorti, il superamento del divario digitale tra studenti con e senza accesso a strumenti premium e il coinvolgimento non uniforme del corpo docente. Le opportunità risiedono nell’uso dell’IA come strumento pedagogico per migliorare l’apprendimento, la programmazione e il pensiero critico. Le raccomandazioni sottolineano la necessità di approcci interdisciplinari, un’attenzione centrale all’etica e una leadership proattiva per guidare lo sviluppo dell’IA anziché subirlo.

​Questo modello di governance a livello istituzionale può essere messo a confronto con la regolamentazione governativa su larga scala, come l’AI Act dell’Unione Europea. Quest’ultimo rappresenta un tentativo pionieristico di creare un quadro giuridico per l’IA, cercando di tradurre i principi etici in norme di conformità concrete e vincolanti.

​Esiste un divario significativo tra la proliferazione di principi etici di alto livello per l’IA e lo sviluppo di meccanismi efficaci e applicabili per la loro implementazione e supervisione. A livello globale sta emergendo un consenso su un insieme di principi etici fondamentali. Tuttavia, il rapporto di Yale dimostra l’immensa difficoltà di tradurre questi principi in politiche coerenti anche all’interno di una singola organizzazione ben finanziata, dove questioni come la diversità delle politiche dei docenti e l’accesso equo evidenziano gli ostacoli pratici. L’AI Act europeo è un tentativo a livello macro di colmare questo divario, ma la sua efficacia dipenderà dall’applicazione, dall’audit e dalla capacità di adattarsi a una tecnologia in rapida evoluzione. La sfida centrale della governance dell’IA non è quindi il cosa (i principi), ma il come (i meccanismi). È in questo “divario di governance” che prosperano gli esiti non etici. Ciò evidenzia la necessità di quella che Floridi chiama “soft ethics”  — una cultura della pratica etica che va oltre la mera conformità — e di solidi meccanismi di audit indipendenti per responsabilizzare gli attori potenti, un punto sollevato anche da O’Neil riguardo alla necessità di regolamentazione.

​La Sintesi propositiva: Un matrimonio tra il Verde e il Blu

​La visione conclusiva di Floridi invoca un “nuovo matrimonio tra il Verde di tutti i nostri habitat e il Blu di tutte le nostre tecnologie digitali”. Questo rappresenta l’obiettivo finale: sfruttare la capacità di risoluzione dei problemi dell’agenzia artificiale per creare una società più sostenibile e giusta. Tuttavia, questo “matrimonio” è impossibile senza prima interiorizzare le lezioni della critica materialista. Una “Good AI Society”  non può essere costruita su fondamenta di oppressione algoritmica ed estrazione planetaria. Una sintesi efficace richiede pertanto:

  1. Fondamento Filosofico: Adottare il quadro dell’ “agenzia senza intelligenza” per mantenere la responsabilità umana al centro.
  2. Giustizia Sociale by Design: Smantellare attivamente i pregiudizi e il “redlining tecnologico” come principio di progettazione fondamentale, non come un ripensamento.
  3. Sostenibilità Obbligatoria: Trattare l’impronta ambientale dell’IA non come un’esternalità, ma come un vincolo di progettazione primario, esigendo trasparenza e una transizione verso le energie rinnovabili.
  4. Governance Democratica: Implementare una governance robusta e multilivello che combini la regolamentazione legale con la supervisione istituzionale e una cultura diffusa di “soft ethics”.

​L’etica dell’IA non è un sottocampo di nicchia dell’informatica o della filosofia, ma una sfida sistemica e civilizzatrice che richiede un approccio profondamente interdisciplinare e integrato. Una discussione significativa deve necessariamente spaziare dalla filosofia kantiana  alla sociologia del potere , dalla scienza ambientale  all’economia politica  e alle politiche pubbliche. Questi campi non offrono semplicemente “prospettive” diverse sull’IA; rivelano strati diversi e profondamente interconnessi di un unico, complesso sistema. Il pregiudizio in un algoritmo (Noble) è inseparabile dalla catena di approvvigionamento materiale che ha costruito il server su cui gira (Crawford), che è a sua volta inseparabile dai presupposti filosofici che facciamo sulla sua “intelligenza” (Floridi). Qualsiasi tentativo di risolvere l'”etica dell’IA” in modo isolato è destinato a fallire. Non possiamo semplicemente “de-biasare” un algoritmo ignorando il lavoro sfruttato per etichettare i suoi dati o i combustibili fossili usati per alimentarlo. Pertanto, una vera “critica della ragione artificiale” deve essere una critica olistica dell’intero sistema socio-tecnico-ambientale che l’IA abita e rimodella.

​La Ragione Pratica nell’Era dell’Agenzia Artificiale

​Questo rapporto ha tracciato un percorso intellettuale che, partendo dalla provocazione filosofica di Luciano Floridi, ha decostruito il mito dell’intelligenza macchinica, ha confrontato questa visione con le realtà materiali del potere e dei costi planetari, e ha infine esplorato le vie per una governance responsabile.

​Tornando alle radici kantiane del titolo, una moderna “critica della ragione pratica” per l’IA non riguarda la programmazione di macchine affinché siano morali. Riguarda, piuttosto, la capacità dell’umanità di esaminare criticamente i limiti e le condizioni della propria ragione pratica in un mondo ora co-abitato da potenti agenti artificiali. L’imperativo etico ultimo non è costruire macchine intelligenti, ma che gli esseri umani agiscano in modo intelligente e morale con i potenti strumenti che hanno creato. L’obiettivo è rimanere gli architetti del nostro futuro, assicurando che l’agenzia artificiale sia diretta verso la fioritura della dignità umana e la salute del pianeta.