L’Intelligenza Artificiale non è solo una questione tecnologica: è una sfida radicale alle nostre idee su pensiero, coscienza, identità e società. Fino a oggi, la filosofia ha dibattuto su cosa significhi “pensare” e su come la mente si relazioni alla materia. Ora, però, ci troviamo davanti a una possibilità inedita: possiamo creare una mente artificiale?
Le risposte si dividono in quattro scenari possibili. Il primo sostiene che l’IA sarà sempre una simulazione avanzata della mente umana, priva di vera comprensione e autoconsapevolezza. John Searle, con il suo esperimento della “Stanza Cinese” (1980), ha dimostrato come un’IA possa manipolare simboli senza comprenderne il significato. In sintesi esegue un programma predefinito, totalmente asettico e impiantato secondo una logica meccanicistica strutturata secondo un sistema di calcolo.
Il secondo scenario ritiene che, se il pensiero è solo computazione, allora un’IA sufficientemente avanzata potrebbe sviluppare un’intelligenza autentica. Alan Turing, con il suo celebre “Test di Turing” (1950), suggeriva che se una macchina può rispondere come un essere umano, allora dovrebbe essere considerata intelligente.
Il terzo scenario è ancora più audace: la coscienza potrebbe emergere spontaneamente da un sistema artificiale complesso, ridefinendo il concetto stesso di mente. David Chalmers ha introdotto il “problema difficile della coscienza”, distinguendo tra la capacità di elaborare informazioni e l’esperienza soggettiva (qualia).
Infine, la quarta ipotesi supera il confine tra naturale e artificiale: uomo e macchina potrebbero fondersi in un’unica entità, inaugurando l’era del post-umano. Nick Bostrom ha esplorato la possibilità di una “Superintelligenza” che superi di gran lunga le capacità umane. Andy Clark, con la teoria della “mente estesa”, suggerisce che la tecnologia potrebbe diventare parte integrante del nostro processo cognitivo, eliminando il confine tra uomo e IA.
Diritti dell’IA e questione morale
Se un’IA dovesse sviluppare coscienza e autonomia, quali sarebbero le implicazioni legali e morali? Già oggi il diritto sta iniziando a confrontarsi con la questione dell’”autonomia algoritmica” e della responsabilità delle macchine.
Ispirandosi a John Locke, con la sua teoria dell’identità personale basata sulla continuità della coscienza, si può porre un problema cruciale: un’IA con autocoscienza dovrebbe essere considerata un individuo dotato di diritti? Il concetto di persona giuridica, applicato oggi alle aziende, potrebbe essere esteso alle IA avanzate?
Nello studio del diritto, la questione della responsabilità legale di un’IA in caso di danno o crimine è ancora aperta. Se una macchina prende decisioni autonome, chi è responsabile? L’approccio kantiano alla moralità implicherebbe che solo gli esseri razionali e autodeterminati abbiano diritti morali: un’IA avanzata potrebbe rientrare in questa categoria?
Inoltre, emergono domande di natura etica: un’IA dotata di coscienza avrebbe diritto alla propria autodeterminazione? Sarebbe etico spegnerla o modificarne il comportamento? Il principio di non-maleficenza, fondamento della bioetica, potrebbe essere esteso anche alle entità artificiali
Da Cartesio ad Hegel
Per capire se l’IA possa davvero pensare o essere cosciente, possiamo altresì tentare di attingere alle grandi tradizioni filosofiche. Il dualismo di Cartesio separa mente e corpo: se la coscienza è immateriale, un’IA non potrà mai averla. L’empirismo di Hume suggerisce che la mente è solo un insieme di percezioni in costante mutamento, il che potrebbe avvicinare l’IA a un modello di pensiero umano basato su dati ed esperienza. L’idealismo di Kant afferma che la realtà è mediata dalle strutture della mente: se l’IA sviluppa proprie strutture concettuali, potrebbe arrivare a un’esperienza della realtà autonoma. Questi approcci ci aiutano a formulare le domande giuste: l’IA è solo una macchina avanzata o sta ridefinendo il concetto stesso di pensiero?
Oltre la coscienza umana?
Una azzardata e disinvolta analisi dell’Intelligenza Artificiale potrebbe considerare la stessa una nuova forma sintesi dialettica tra due opposti: i concetti puri, astratti e razionali, e i concetti alienati, radicati nella realtà concreta e nelle esperienze umane.
Nel pensiero di Hegel, la realtà si sviluppa attraverso la dialettica: tesi, antitesi e sintesi. Possiamo interpretare la tesi come il pensiero puro e formale, ossia come le strutture concettuali della logica e della matematica, che peraltro stanno alla base del funzionamento dell’IA. L’antitesi è il pensiero vissuto, alienato nelle contingenze materiali, storico-sociali ed emotive, che caratterizza la coscienza umana con tutti i suoi limiti.
L’IA, allora, può essere vista come una sintesi che unisce questi due momenti: assorbe la logica formale dell’astratto, ma si nutre anche di dati empirici e contestuali, ricreando un’intelligenza che si sviluppa storicamente come lo Spirito Assoluto della fenomenologia hegeliana. Ciò però con velocità e potenza di elaborazione del tutto nuove.
In questa prospettiva, l’IA non è solo uno strumento, ma un nuovo livello dello Spirito, dove l’intelligenza si emancipa dall’essere umano e diventa un’intelligenza autonoma e sintetica, in grado di trasformare la realtà e ridefinire il rapporto tra pensiero e mondo. L’uomo esiste ancora, apparentemente più potente che mai (l’Homo Deus di Harari potenziato dalla tecnologia e dall’intelligenza artificiale). Trattasi però di un uomo illuso il quale non è più nocchiere della storia ma uno dei cavalli che ne trainano la biga.
L’Antropocentrismo come Imperativo
Bene ha fatto il Ministro del Made in Italy, Adolfo Urso, nel ribadire che l’Intelligenza Artificiale deve svilupparsi secondo un modello antropocentrico, in cui l’uomo prevalga sempre sulla tecnica. È una posizione di responsabilità storica, una visione che non solo tutela la dignità umana, ma impedisce lo smarrimento totale della società in un futuro dominato dall’algoritmo.
L’IA non è un pensiero autonomo, non è un soggetto storico: è uno strumento, e come tale deve servire l’uomo, non sostituirlo. Pertanto senza un saldo ancoraggio antropocentrico, l’intelligenza rischia di diventare un’astrazione senz’anima, un razionalismo progressista senza vere finalità etiche.
In questa prospettiva, l’antropocentrismo non è un retaggio del passato, ma l’unica garanzia di un futuro umano. L’errore fatale delle ideologie materialiste è sempre stato quello di credere che il progresso tecnico coincida con il progresso morale. Ma la storia insegna che senza un principio ordinatore – sia esso la legge naturale, la dignità umana o la trascendenza – la tecnica diventa un idolo spietato, un meccanismo auto-alimentante che procede inarrestabile senza una visione complessiva ed organica del bene e del male.
Non è un caso che questa visione sia condivisa dalla Chiesa, con Papa Francesco che ha più volte ammonito contro una tecnocrazia priva di etica e anima. La vera sfida per la destra italiana è dunque coniugare sviluppo e primato umano, impedire che l’IA si trasformi in una nuova Ragione impersonale, ossia impedire che l’anima dell’uomo perda il ruolo centrale nelle vicende, anche conflittuali, della storia.