E’ lecito chiederci se…

L’Intelligenza Artificiale (AI) è diventata in poco tempo un fenomeno mediatico, che è scoppiato nelle nostre coscienze a partire dal 30 novembre 2022, quando è stato lanciato ufficialmente dai laboratori OpenAI di San Francisco ChatGpt, raggiungendo in appena due mesi 100 milioni di utenti. Subito si è parlato di rivoluzione, come se l’AI non fosse una realtà concreta già a partire dagli anni Cinquanta del secolo scorso. E con radici molto più profonde e in là nel tempo. Momento di svolta di questo cambiamento epocale è stato in effetti il cosiddetto Test di Turing, proposto dal genio della matematica Alan Turing, che ricordiamo anche per aver decifrato attraverso la macchina chiamata Bombe, un calcolatore elettromeccanico, le comunicazioni che i nazisti criptavano con l’ausilio della macchina Enigma.

Scopo del test, valutare se l’intelligenza linguistica artificiale di cui sia dotato un computer appaia come indistinguibile da quella umana. Nel test, un giudice esaminatore, attraverso una chat, si fa interagire separatamente con una macchina e con un altro essere umano, nel tentativo di riconoscere quale delle risposte alle sue domande siano state scritte da un essere umano e quali dalla macchina. Il tutto, ripetuto un numero di volte statisticamente significativo. Questo test si considera superato se il giudice considera valide le risposte della macchina almeno nel 30% dei casi. Il Test di Turing è stato superato per la prima volta il 7 giugno 2014, da un team russo, che simulava un ragazzo ucraino di 13 anni. Non senza una serie di critiche, che a quelle ormai classiche rivolte al Test di Turing, accusato di valutare solo competenze linguistiche e di simulare l’intelligenza umana, piuttosto che valutare il possesso di una vera e propria coscienza e comprensione, hanno messo in evidenza come le competenze linguistiche di un ragazzino di 13 anni siano abbastanza limitate.

ChatGpt ha recentemente superato il Test di Turing, con percentuali più che doppie rispetto a quelle ritenute idonee al superamento del test, attestandosi intorno al 73%. E tuttavia, se pure è vero che ChatGpt imiti brillantemente conversazioni umane, si può parlare di vera e propria intelligenza artificiale? Rimane oltremodo valida l’opposizione ante litteram di Ada Lovelace, figlia tormentata di Lord Byron, genio della matematica e pioniera dell’informatica già in piena epoca vittoriana. Secondo la cosiddetta “obiezione di Lady Lovelace”, le macchine non hanno originalità, non creano nulla, eseguono solo ordini. Oltre cento anni dopo, sarà lo stesso Turing a sostenere che le macchine possono sorprenderci, generando risultati imprevisti. La questione è oggi più che mai aperta e dibattuta, proprio in virtù dei più recenti progressi attribuiti all’AI. Federico Faggin, fisico e inventore del primo microprocessore al mondo è dalla parte di Lady Lovelace, sostenendo che la coscienza sia un fenomeno di natura spirituale e ancorando queste sue annose riflessioni ai concetti più ardui della meccanica quantistica; ad esempio cercando di spiegarne uno dei fenomeni fisici più strabilianti e controversi, come senz’altro è quello del collasso della funzione d’onda. Altri, come Daniel Dennett, filosofo; Marvin Minsky, padre fondatore dell’AI, propongono un concetto d’intelligenza artificiale forte. Nessuna differenza per loro tra intelligenza umana e intelligenza artificiale. Il cervello per loro sarebbe una sorta di macchina di materiale biologico.

Fenomeno mediatico a parte, l’AI è presente e operativa nelle industrie da sessant’anti, permettendo l’automatizzazione e l’introduzione di sistemi d’apprendimento automatico. Attraverso l’AI è possibile prevedere guasti ai macchinari, prima che avvengano; ispezionare le linee di produzione con precisione superiore all’occhio umano; ottimizzare i processi produttivi, tramite algoritmi; utilizzare robot che collaborano attivamente con gli operatori umani. Altri settori in cui l’AI sta già producendo risultati significativi sono: la sanità, la finanza, il marketing, nella didattica e supporto ai docenti. La nuova frontiera è l’AI generativa, capace di simulare l’intelligenza umana, creando nuovi contenuti che si ritiene siano originali. Laddove l’AI tradizionale classifica, produce decisioni, si basa su dati storici, l’AI generativa crea contenuti nuovi, genera testi e immagini, utilizza modelli probabilistici complessi.

Se quindi i vantaggi dell’AI sono molti e molti altri verranno generati nel prossimo futuro, tutto ciò pone anche sfide e rischi. Che se non sono da sottovalutare, non sono neppure da stimare eccessivamente. Poiché i modelli di AI vengono per così dire addestrati su enormi quantità di dati, certamente ne riproducono anche limiti e pregiudizi, riproducendo se non amplificando per il futuro discriminazioni già operative nel passato. Spesso tra i dati processati sono compresi dati personali, sollevando questioni sulla privacy; i modelli generati possono riprodurre informazioni sbagliate. L’uso dell’AI produce sicuramente un forte impatto nel mondo del lavoro, determinando la scomparsa di alcune professioni, ma anche la creazione di altri; i sistemi informatici subiscono attacchi con sempre maggiore frequenza ed efficacia.

Altre questioni di scottante attualità sono legate ai contenuti generati, che originano dispute in merito a chi spetti la relativa proprietà intellettuale e a eventuali pratiche di manipolazione di contenuti e dati personali, che mettono in discussione la tutela dell’immagine personale, con immagini e video manipolati. Il consumo di quantità rilevanti di energia per produrre contenuti di AI pone sfide sulla sostenibilità ambientale.

Chi ci metterà poi al riparo dall’eccessiva delega ai sistemi dominati dell’AI perfino delle più semplici attività quotidiane, con la conseguente riduzione delle capacità umane e il sostanziale asservimento alla macchina? Un esempio, semplice e immediato, può essere utile a uscire dalle secche di una eventuale riflessione che si svolgesse solo in astratto. Chi può negare che gli ascensori siano un ottimo metodo per spostarsi in verticale, che si tratti di strumenti utili, a volte anche indispensabili. E tuttavia, chi sarebbe disposto a vivere in una casa con l’ascensore, ma priva di scale? E ancora, per entrare nello specifico dell’AI: chi sarebbe disposto ad affidarsi a un’automobile provvista di tutti i più avanzati sistemi di automazione, come la guida autonoma, se questa non fosse provvista di un sistema che al bisogno sia in grado di escludere o spegnere il computer, diciamo — semplificando ma non troppo — di un banale bottone per disinnescare sistemi anche avanzatissimi di AI?

Se ChatGpt, Gemini, Claude, Microsoft Copilot, Meta AI e altri ancora sono gestiti da aziende che decidono cosa questi utili strumenti opportunamente interrogati possono dirci della realtà storica, sociale, politica nella quale viviamo e cosa non possono dirci, che decidono in che modo possono farlo, è lecito chiederci se esiste per gli utenti finali la possibilità di premere in ogni istante quel bottone? Insomma, la questione di rilievo non è tanto che in un futuro non troppo lontano un robottino possa essere di compagnia e d’aiuto, per esempio a persone non autosufficienti; è già una realtà. La questione davvero importante, per dirla alla maniera di Luciano Floridi, fondatore della Filosofia dell’Informazione, è in definitiva chiedersi: chi controlla il robottino?

Condividi: