Insegnare alle macchine la noia dell’umanità. La svolta dell’intelligenza artificiale dal machine learning a ChatGPT.
di Nicola Ludwig (*)
“Dobbiamo mettere in pausa l’avanzata dell’intelligenza artificiale”, sostengono in una lettera aperta pubblicata martedì 28 marzo oltre mille esperti e ricercatori del settore, tra cui Elon Musk, amministratore delegato di Tesla. La richiesta dell’appello promosso dal Future of life institute (1) è di sospendere per sei mesi la ricerca sui software della generazione successiva a GPT-4, il software conversazionale lanciato a metà marzo dalla società californiana OpenAI. Il codice di intelligenza artificiale noto come ChatGPT è talmente addestrato alla lettura e al riconoscimento di strutture ripetitive del linguaggio umano da essere in grado di sostenere una conversazione con umani in modo totalmente mimetico: l’utente, non a sua volta addestrato, non è cioè in grado di riconoscere nell’interlocutore una macchina o un altro umano.
La moratoria dovrebbe essere utilizzata per sviluppare sistemi di controllo del software, ritenuto “pericoloso per l’umanità” o meglio secondo il principio di Asilomar redatto già nel 2017 “i sistemi di IA avanzati possono rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbero essere monitorati e gestiti con appropriate cura e risorse” (2).
Gli ultimi mesi hanno infatti visto i laboratori di intelligenza artificiale richiusi su se stessi in una corsa incontrollata per sviluppare e implementare sistemi di IA sempre più potenti, scoprendo strada facendo che nessuno – nemmeno i programmatori stessi – può comprendere, prevedere o controllare in modo affidabile cosa essi siano in grado di fare. Uno degli aspetti più inquietanti, peraltro non imprevisto ma cercato per motivi di ottimizzazione del tempo dei programmatori, è la capacità dei software di scrivere autonomamente parti di codice, cioè di se stessi e quindi in ultima analisi di replicarsi e autogenerarsi, creando, almeno secondo alcune teorie, le basi per una nuova forma di vita virtuale. Il cosiddetto machine learning, cioè l’uso di macchine in grado di imparare dall’esperienza e quindi in grado di modificare il proprio comportamento è passato in pochi anni dall’apprendimento in ambito robotico a quello linguistico-conversazionale.
Ciò che più ha colpito l’opinione pubblica, sicuramente più attenta al tema della sostituzione tecnologia nel lavoro che allo sbocciare di nuove forme di vita, è tuttavia la perizia con la quale i nuovi algoritmi riescono a usare il linguaggio umano per intrattenerci, forse per ingannarci, probabilmente per superarci. Perizia che dimostra, da un lato, l’immensa potenza raggiunta dai sistemi basati sull’accesso al cloud, la banca dati virtualmente infinita della conoscenza umana in rete, dall’altro il fatto che i linguaggi umani non sono poi così inaccessibili a sistemi basati su connessioni elettroniche invece che sulle sinapsi cerebrali.
A questo proposito sono numerose le testimonianze, le più riferite alla capacità di ChatGPT di scrivere tesi o temi scolastici assolutamente indistinguibili da un compito di medio valore, privi di errori tanto quanto di originalità. Tutte riconducono al nocciolo del funzionamento del codice: costruire testi a partire da un patrimonio quasi infinito di esempi linguistici, letterari, saggistici o in generale attingendo al vasto patrimonio di testi messo in rete negli ultimi 20 anni, dall’inizio dell’era dell’internet di massa. Una funzione che in parte ricalca proprio il metodo con il quale gran parte dell’umanità, o perlomeno parte cospicua dei media, comunica in forma scritta: copiando. Curiosamente i limiti attuali dei codici di IA sembrano essere proprio nel ragionamento astratto e nella capacità di risolvere problemi matematici, le cui soluzioni non sono evidentemente reperibili in rete. Fra le più spassose e forse volutamente scherzose testimonianze, visto il coinvolgimento di Microsoft nella start up californiana, c’è quella pubblicata da Bill Gates sul GatesNotes lo scorso 21 marzo (3). In essa il fondatore di Microsoft riferisce che una IA richiesta di programmare le tappe di un viaggio può inventare hotel inesistenti o proporre quelli già al completo. Non distingue cioè il contesto della richiesta: la differenza fra un viaggio pensato e uno da programmare realmente. Secondo la CNN, Gates, inizialmente fra i promotori della lettera avrebbe in seguito ritirato il proprio appoggio.
Su un piano meno faceto i firmatari rilevano il pericolo che i nuovi sistemi di IA diventino in un futuro imminente competitivi con l’attività umana nello svolgere compiti generali con il risultato di inondare la società di informazioni non verificate o puramente propagandistiche nonché di rendere automatizzati molti lavori intellettuali, considerati creativi o comunque non tediosi. Il rischio sarebbe quello di sviluppare menti non-umane in grado in via definitiva di superarci, renderci inefficaci, obsoleti e infine sostituirci. Fino a lanciare il drammatico grido “possiamo rischiare di perdere il controllo della nostra civiltà?” e soprattutto invitare lopinione pubblica a riflettere sul fatto che decisioni in merito allo sviluppo di queste IA possono essere delegate a personalità non elette democraticamente.
Questo articolo nell’esperienza del suo autore umano avrebbe potuto essere scritto da ChatGPT utilizzando circa un decimillesimo del tempo, ma sarebbe stato nettamente più prolisso, noioso e avrebbe potuto inserire notizie del tutto non verificate.
(*) Professore di Fisica applicata presso l’Università statale di Milano
- (1) Sito https://futureoflife.org/
- (2) https://futureoflife.org/open-letter/ai-principles/
- (3) https://www.gatesnotes.com/The-Age-of-AI-Has-Begun
Diciamo subito che è provvidenziale questo recentissimo interesse nei confronti dell’IA e in forma non di fascinazione beata, ma piuttosto allarmata. Rimane pero’ l’impressione che che ci sia da una parte ChatGPT – spaventoso saccentone macchinico, che incarna splendori e terrori dell’IA – e poi noi comuni mortali, che nelle nostre produzioni linguistiche e intellettuali un giorno potremmo essere soppiantati e superati da lui. Intanto lui (ossia l’IA) fa parte della nostra esperienza quotidiana ogni volta che navighiamo in rete. Non solo già ci accompagna, ma noi lo nutriamo e rinvigoriamo a ogni clic, fornendogli qualche dato in più da poter trattare, qualche esemplare di frase su cui calcare le sue eventuali ricombinazioni future. Quindi, quelli che oggi lanciano l’allarme, per lo meno si sono svegliati molto tardi. La loro lodevole attitudine pedagogica potevano e dovevano manifestarla prima. Nessuno di noi d’altra parte si è chiesto più di tanto come funzionassero le piattaforme che “rendono la nostra vita cosi facili e che oggi sono cosi indispensabili”.
Quindi: bene la presa di coscienza, a patto che favorisca una visuale allargata, e in cui si complichi un po’ il caricaturale duello uomo-macchina. Quanti esseri umani possono oggi immaginare solo un momento di ritornare a una forma di vita “appena più difficile”, dove il ristorante devi cercartelo da solo? Esistono certo questioni specifiche come la non “comprensione” dei programmatori umani dei percorsi e delle logiche che permetteno oggi a queste macchine sofisticate di funzionare – ed è tra l’altro un punto ben illustrato in questo pezzo -, ma esiste un più generale problema su quello che noi continuiamo a chiedere alle macchine, in primo luogo. Secondo punto, queste macchine attirano investimenti miliardari. Insomma, c’è una piccola élite di investitori (fondi finanziari) e di esperti del settore che hanno tutto interesse al continuo sviluppo della IA. Vi è poi tutto il discorso dei “lavoratori del clic” ossia della manodopoera non qualificata che nei paesi a bassissimo reddito “addestra” le macchine. Su questi e altri temi, si legganno tra gli altri i lavori di Casilli: https://www.casilli.fr/tag/schiavi-del-clic/. Insomma, per capire la minaccia che puo’ rappresentare la IA, dovremmo già capire la minaccia che rappresenta oggi la nostra forma di vita, cosi più “facile” e cosi “indispensabile”, grazie alle piattaforme, alle app, allo smartphone, ecc.
Sono d’accordo con te. Diciamo che però il modo in cui è stato presentata ChatGpt costituisce un allarme nell’allarme: qui ci troviamo più vicini a Harry Potter che al mondo della scienza. Anche ora, mentre scrivo Repubblica ci informa che ChatGpt è in grado di leggere nel pensiero. Questo tipo di campagna non è solo marketing molto aggressivo, ma è un tentativo di svalutare il pensiero critico, le attività intellettuali, insomma chiamalo come vuoi.