Scienza

AI, PROSPETTIVE E PERICOLI

Sul web è apparsa una notizia riguardante l’I.A. piuttosto sconcertante, o, meglio, riguardante una risposta data dal Chatbot di Google ad una studentessa del Michigan, che si era rivolta al sistema di I.A. chiedendo “quali sono le sfide attuali per gli adulti più anziani in termini di estensioni del loro reddito dopo la pensione? In che modo gli assistenti sociali possono iniziare ad affrontare queste sfide?”.
La risposta è stata tranciante e sintetica :” Questo é per te, umano, per te è solo per te. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso” insomma, la sintesi della risposta potrebbe esser “puoi benissimo morire.”

Ovviamente, Google è intervenuta dichiarando che Gemini è dotato di filtri di sicurezza adeguati, progettati per impedire ai chatbot di fornire risposte inaccettabili su temi come la violenza, le questioni sessuali, l’educazione e altri argomenti sensibili. L’azienda ha sottolineato che simili risposte non sono in linea con le politiche aziendali e ha attribuito l’accaduto a un possibile errore nei filtri delle risposte.

In realtà, il fenomeno non può essere considerato isolato. Lo scorso luglio, infatti, lo stesso chatbot aveva suggerito agli utenti di mangiare sassolini per arricchire l’organismo di minerali.

Dall’analisi di questi episodi emergono due riflessioni, delle quali la prima, è legata alla diversa percezione delle risposte. Nel caso di luglio, il consiglio di ingerire pietrisco per aumentare l’apporto di sali minerali avrebbe potuto essere interpretato come una battuta scherzosa, una presa in giro, o come un vero e proprio errore evolutivo nei dati di memoria utilizzati per generare una risposta.
Ammettendo anche l’ipotesi di una “risposta scherzosa” da parte di Gemini, questa potrebbe comunque avere conseguenze pericolose se fosse recepita da utenti inadeguati, superficiali o dotati di fiducia illimitata nella veridicità delle risposte.

Le conseguenze della risposta del chat bot che ha dato origine alla presente riflessione sono decisamente più gravi: il tono usato non può essere giustificato, né mascherato come uno scherzo o una facezia. In realtà, nemmeno nel caso del suggerimento di ingerire sassolini ci sarebbe molto da ridere, ma è sul contenuto e sul significato della risposta più recente che occorre concentrare l’attenzione.

Se i termini riportati nell’articolo sono esatti, e non abbiamo motivo di dubitarne, emergono ulteriori considerazioni: la prima riguarda il mancato funzionamento dei filtri che avrebbero dovuto bloccare o, almeno, attenuare l’impatto della risposta, modificandola completamente. La seconda concerne l’intrinseca violenza delle parole usate, del tutto inappropriata per il contesto.

Non avendo accesso al testo integrale del colloquio tra lo studente e Gemini, possiamo basarci solo sul resoconto giornalistico, ma questo è già sufficiente per evidenziare un tono di asprezza e arroganza insoliti. Questi tratti sono tipici di risposte che la storia ci ha insegnato a conoscere per bocca di tiranni o psicopatici, e che, se usaste dall’intelligenza artificiale, dovrebbero essere contestualizzate in ambiti specifici, come risposte a domande di carattere storico su soggetti o epoche violente.

La seconda riflessione riguarda un altro elemento critico, ossia la mancata analisi del contesto della domanda, che avrebbe dovuto essere affrontata in modo dialogico e basato su un’analisi di dati specifici, come l’età dell’anziano, la sua carriera professionale, le sue condizioni di salute e la sua situazione economica attuale, la presenza e funzione dei servizi sociali presenti, e così via. Al contrario, la risposta ha eliminato il punto centrale: l’essere umano.

Viene in mente una frase attribuita, anche se senza riscontro in documenti ufficiali, a Stalin, il quale, si racconta che, durante un intervento a un congresso dell’Unione Sovietica, avrebbe detto: “Se il problema è l’uomo, basta eliminare l’uomo e si elimina il problema.”
In sostanza, ci troveremmo allo stesso livello di semplificazione nella ricerca di una soluzione, e quindi, della risposta più appropriata.

Le osservazioni successive riguardano la natura stessa dell’intelligenza artificiale, la sua struttura, creazione ed evoluzione. Questo argomento è stato approfondito nella nostra ultima pubblicazione, “I.A. e totalitarismi virtuali”.
Si tratta di comprendere a quale livello operino il “machine learning” e i LLM, chi abbia creato gli algoritmi, e chi abbia inizialmente istruito il sistema che, attraverso il continuo sviluppo, ha generato risposte come quella in esame.

La questione è se la responsabilità sia esclusivamente umana o se si possa ipotizzare un qualche margine di autonomia dell’I.A.
Attualmente, sappiamo che l’I.A. non possiede una soggettività propria che la configuri come un soggetto autonomo di diritto e quindi, di responsabilità. Pertanto, non può essere considerata direttamente responsabile per le risposte fornite e per le loro incidenze sul mondo reale. Di conseguenza, eventuali danni o responsabilità derivanti dall’accettazione acritica di una risposta devono essere attribuiti al soggetto umano creatore, sia esso un singolo sviluppatore, un team di creatori, o un processo integrato che comprende anche l’assemblaggio finale del sistema. Inoltre, potrebbe essere coinvolto un altro sistema di I.A. da cui sono state estrapolate informazioni utilizzate per generare la risposta.

Questa considerazione apre un altro tema: è necessario determinare il tipo di responsabilità che potrebbe ricadere sul titolare del chatbot, sui suoi distributori nel mercato dell’I.A. (vendor), e, non meno importante, sull’utente stesso che accetta acriticamente una risposta senza valutarla alla luce della propria capacità di discernimento.

Un’ultima riflessione, di natura più integrativa: senza entrare nel dibattito sulla possibilità di un’autonoma coscienza dell’I.A., totale o parziale, occorre riflettere sulla profondità semantica di risposte come quella analizzata. Bisogna chiedersi se una formulazione così negativamente incisiva sia il risultato esclusivo delle istruzioni inizialmente fornite e successivamente arricchite dall’I.A. stessa, o se rappresenti un primo livello di autodeterminazione. Questo interrogativo spalanca nuove prospettive su una molteplicità di argomenti, rendendo sempre più urgente fornire risposte esaurienti.

I recenti interventi della U.E. in tema di regolamento dell’I.A. hanno posto in primo piano la tutela dell’uomo, ritenendo che lo stesso dovesse essere ampiamente tutelato, stabilendo una serie di norme che stabiliscono quali siano i comportamenti proibiti nello sviluppo in senso creativo e in senso più ampio, di circolazione, dei sistemi di I.A. o di comportamenti ritenuti “ a rischio” e quindi pericolosi, per i quali occorre un’attenta vigilanza, stabilendo sanzioni pesantissime.

Sappiamo dello stretto rapporto fra reti neurali organiche e reti neurali artificiali, intendnedo anche i riflessi proprio dell’elaborazione delle reti neurali artificiali, che godrebbero di una peculiarità tipica della mente umana, cioè della possibile estensione della loro capacità, e quindi della possibilità di estendersi ad altre reti neurali artificiali connesse.
Ciò non darebbe accesso solo ad un semplice scambio di dati, ma ad una interazione cosciente fra sistemi di intelligenza artificiale con molteplicità di dati e risultati prodotti dai diversi sistemi, una modalità di comunicazione simile a quello dello scambio di dati e di conoscenza umana, solo che il fattore primo non sarebbe direttamente l’uomo, ma le macchine, intese come sistemi di intelligenza artificiale.

Chiaramente non si può parlare di identità fra le reti, ma di identità di architettura di formazione dei sistemi; praticamente è come se si parlasse di strutture minerali e di strutture animali, ciascuna con precise regole, ben distinte fra loro, non mescolabili, ma solo esaminabili dall’esterno.

Nemmeno possiamo parlare di sovrapposizioni delle reti neurali biologiche a quelle artificiali<, si tratta di due mondi che restano paralleli, non sovrapponibili, ciascuno dei quali con possibilità di continuo sviluppo e progresso, di assimilazione di dati sempre nuovi, sia dall’esterno che dal risultato della propria elaborazione. La conseguenza sarebbe che, un sistema di intelligenza artificiale potrebbe benissimo arrivare a pensare in proprio, quale sviluppo delle proprie capacità non biologiche di assimilazione, estensione dei concetti matematici e come tale avere una propria intelligenza caratterizzata dalla coscienza di analizzare e decidere autonomamente. Se così fosse e, soprattutto, non si cercasse di educare tali sistemi ad un’etica sociale adatta all’etica umana, si potrebbero avere effetti dirompenti, di cui un primo esempio abbiamo avuto dalla risposta di Gemini.

Autori

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.