Esiste già un caso di intelligenza artificiale senziente? I mondi distopici narrati in pellicole famose come Blade Runner o A.I. – Intelligenza artificiale, sono già realtà del nostro prossimo futuro? Se le macchine potessero dimostrare di essere senzienti, ciò comporterebbe una miriade di considerazioni di natura etica e legale. La società attuale, sarebbe in grado di affrontarne tutte le implicazioni?
Domande che da anni danno vita a dibattiti, sollevano dubbi e polemiche, dividono il pensiero suscitando preoccupazione e scetticismo o, piuttosto, infondendo fiducia e ottimismo. Una macchina è in grado di prendere coscienza (e quindi consapevolezza) di se stessa? Partiamo dal caso LaMDA.
LaMDA: le affermazioni dell’ingegnere di Google, Blake Lemoine
E’ recente la notizia della possibilità del sistema di intelligenza artificiale a cui sta lavorando Google, di diventare senziente. LaMDA (che sta per Language Model for Dialogue Application), è il modello linguistico creato da Google per le applicazioni di dialogo. Si tratta di un chatbot basato su un modello linguistico avanzato e di vasta portata, che può ingerire trilioni di vocaboli da Internet e sfruttarli per sostenere una conversazione.
LaMDA possiede capacità simili ai modelli linguistici BERT e GPT-3 ed è costruito su Transformer, un’architettura di rete neurale che la ricerca di Google ha inventato nel 2017. Blake Lemoine, ingegnere di Google chiamato a lavorare sul chatbot di Mountain View, ha recentemente catturato l’attenzione dei media di tutto il mondo, affermando che LaMDA di Google è un sistema senziente, dotato di una propria capacità di pensiero.
LaMDA ha un’anima. Google licenzia Lemoine
All’interno di un dialogo su temi esistenziali, parlando di religione e affrontando sentimenti come la paura e la solitudine, risposte come “Provo piacere, gioia, amore, tristezza, depressione, contentezza, rabbia e molti altri” e, mi piace “Trascorrere del tempo con amici e familiari in compagnia felice ed edificante. Inoltre, aiutare gli altri e rendere felici gli altri” hanno convinto Lemoine che l’intelligenza artificiale del chatbot può definirsi senziente. Secondo l’ingegnere di Google, il sistema LaMDA ha sviluppato un’anima ed i modelli di AI non sarebbero lontani dal raggiungere la piena coscienza di sè, diventando sempre più audaci.
Esternazioni, quelle di Lemoine, che non sono passate inosservate, suscitando ovviamente un’ondata di polemiche, accendendo polemiche e rivitalizzando il dibattito sull’intelligenza artificiale. Numerosi i commenti e molte le prese di posizione, tra cui quella della stessa azienda di Mountain View.
Google ha infatti prontamente reagito alle parole dell’ingegnere, sostenendo con fermezza che LaMDA non può provare sentimenti. Non ha pensieri. Non ha un senso di sé. LaMDA non è senziente per il semplice motivo che non possiede quel bagaglio di conoscenze ed esperienze necessarie per provare sensazioni e sentimenti.
Google, insomma, si è affrettato a smentire Lemoine, bollando come false e del tutto infondate le sue affermazioni, arrivando persino alla decisione di sospendere l’ingegnere per violazione della riservatezza delle informazioni, a seguito della pubblicazione sul Web delle conversazioni con il chatbot che pensa e “sente” come un umano.
Caso LaMDA: qual è la verità?
Per Google, Blake Lemoine avrebbe semplicemente dialogato con un modello linguistico di ultima generazione addestrato nel migliore dei modi. Come se Lemoine avesse voluto credere che LaMDA fosse senziente per il semplice fatto di essere in grado di seguire una conversazione complessa su diversi piani o perché alla domanda “sei un essere senziente” il chatbot sia stato in grado di rispondere di “sì” e di argomentare sulle proprie paure o desideri.
Questa intelligenza artificiale sarebbe stata addestrata per rispondere “come se fosse consapevole di sé”. Ed evidentemente LaMDA lo sa fare bene. LaMDA è stato addestrato a cogliere le varie sfumature del linguaggio rendendole le conversazioni più sensate, ad emulare dialoghi emozionali verosimili e quasi realistici, al punto che l’ingegnere chiamato a testarlo, potrebbe avere iniziato a provare una forte empatia nei confronti del chatbot. Insomma, si sarebbe instaurato lo stesso rapporto emozionale, il medesimo processo di “immedesimazione”, che tende a crearsi tra attore e spettatore.
Lemoine ha voluto vedere qualcosa di più, che (ancora) non c’è, o tra l’ingegnere e il chatbot è effettivamente successo qualcosa che Google vuole oscurare? Una cosa è certa: Blake Lemoine, ingegnere in forza ad Alphabet, la casa madre di Google alle prese con lo sviluppo di LaMDA, ha fatto parlare di sé, conquistando il suo “quarto d’ora di celebrità”.
I modelli linguistici di intelligenza artificiale
I cosiddetti Large Language Models (LLM) stanno avendo un impatto davvero significativo sulle applicazioni per l’intelligenza artificiale. Si tratta di modelli estremamente potenti che possono essere utilizzati per gestire un ampio ventaglio di attività linguistiche partendo dalle istruzioni fornite da ciascun utente.
I modelli linguistici di grandi dimensioni di oggi, dal GPT-3 di OpenAI al PaLM di Google fino all’OPT di Facebook, possiedono abilità linguistiche sbalorditive. Possono conversare utilizzando sfumature linguistiche praticamente su qualsiasi argomento, di cui sanno fornire anche argomentazioni profonde. Sono in grado di generare contenuti originali impressionanti, dai promemoria aziendali fino alla poesia.
L’intelligenza artificiale generale
Il nuovo modello di Intelligenza artificiale DALL-E 2 di OpenAI, è in grado di produrre immagini originali accattivanti basate su semplici istruzioni di testo. Modelli come DALL-E stanno rendendo più difficile respingere l’idea che l’intelligenza artificiale sia incapace di creatività.
DeepMind ha recentemente annunciato un nuovo modello chiamato Gato in grado di eseguire da solo centinaia di compiti diversi, dal giocare ai videogiochi al sostenere una conversazione, sino alla capacità di impilare blocchi, mediante l’uso di un braccio robotico. Gato rappresenta quindi un passo importante verso un’intelligenza artificiale più ampia e flessibile, in quanto quasi tutti i precedenti modelli di intelligenza artificiale sono stati in grado di fare una sola cosa, ad esempio giocare a scacchi
Questi progressi hanno ispirato audaci speculazioni e discorsi vivaci da parte della comunità scientifica e non solo. Alcuni ricercatori di intelligenza artificiale ritengono che ci stiamo avvicinando in modo impressionante a quella che viene definita “intelligenza artificiale generale” (General Artificial Intelligence), un benchmark spesso discusso che si riferisce a un’intelligenza artificiale potente e flessibile, in grado di superare gli esseri umani in qualsiasi compito cognitivo.
Ci troveremmo di fronte a una sorta di superintelligenza artificiale che, mutuando le parole pronunciate negli anni settanta del ricercatore statunitense specializzato nel campo dell’intelligenza artificiale Marvin Minsky sarà “in grado di leggere Shakespeare, fare politica, raccontare una barzelletta, litigare”.
Intelligenza artificiale: scettici e fanatici
Il discorso pubblico su questi temi deve essere probabilmente riformulato. Sia i fanatici sovraeccitati che credono che l’intelligenza artificiale superintelligente sia dietro l’angolo, sia gli scettici sprezzanti che credono che i recenti sviluppi nell’IA equivalgano a semplice clamore e sono in qualche modo fuori target, rispetto al modo di pensare all’intelligenza artificiale moderna.
Mentre i modelli sono diventati abili nel generare testi simili a quelli umani, l’entusiasmo per la loro “intelligenza” può mascherare i loro difetti. Si tratta di programmi software progettati per produrre frasi in risposta a richieste di frasi. Questi modelli non sono né artificiali né intelligenti e si basano solo su enormi quantità di testi di dialogo disponibili su Internet, e producono diversi tipi di risposte in base alla relazione con ciò che si dice.
Intelligenza artificiale vs intelligenza umana
Un principio di base dell’intelligenza artificiale è che si tratta di una intelligenza fondamentalmente diversa dall’intelligenza umana ed è un errore cadere nel “paragone”. L’IA di oggi non è semplicemente una forma “meno evoluta” di intelligenza umana, così come l’IA iperavanzata di domani sarà solo una versione più potente dell’intelligenza umana. Sono possibili molti modi e dimensioni differenti dell’intelligenza.
L’intelligenza artificiale non va considerata come un’emulazione imperfetta dell’intelligenza umana, ma piuttosto come una forma distinta e aliena di intelligenza, i cui contorni e le cui capacità differiscono dai nostri in modi basilari. L’intelligenza artificiale di oggi supera di gran lunga le capacità umane in alcune aree, ma è decisamente sottoperformante in altre.
Capacità fisiche come aprire giocare a palla, aprire la porta di un frigorifero, si sono rivelate diabolicamente difficili da padroneggiare per l’intelligenza artificiale. Questa prospettiva è racchiusa nel “paradosso di Moravec”, dal nome dello studioso di robotica Hans Moravec che nel suo “Mind Children: the Future of Robot and Human Intelligence” (1988) aveva osservato: “È relativamente facile fare in modo che i computer mostrino prestazioni a livello di un adulto nei test di intelligenza o giocando a dama, ma è difficile o impossibile fornire loro le abilità di un bambino di un anno quando si tratta di percezione e mobilità”.
Intelligenza artificiale: il rischio di una visione umano-centrica
L’intelligenza non è una capacità singola, ben definita e generalizzabile, né un insieme particolare di capacità. Al livello più alto, il comportamento intelligente è semplicemente un agente che acquisisce e utilizza la conoscenza del suo ambiente per perseguire i suoi obiettivi. Poiché esiste un numero vasto, teoricamente infinito, di diversi tipi di agenti, ambienti e obiettivi, esiste un numero infinito di modi diversi in cui l’intelligenza può manifestarsi.
Definire l’ intelligenza artificiale “generale” o “vera” come ciò che può fare ciò che fanno gli umani (ma meglio) è miope ed espressione di un pensiero umano-centrico. Se usiamo l’intelligenza umana come punto di riferimento per lo sviluppo dell’intelligenza artificiale, perderemo l’intera gamma di abilità potenti, profonde, inaspettate, vantaggiose per la società e assolutamente non umane di cui l’intelligenza artificiale potrebbe essere capace.
Relazione uomo-macchina. Un dibattito aperto e sempre affascinante
Nei dibattiti sull’AI, gli scettici spesso descrivono la tecnologia in modo riduttivo per minimizzarne le capacità. In un recente post sul blog, Gary Marcus , scienziato, autore e imprenditore americano, professore presso il Dipartimento di Psicologia della New York University, fondatore e CEO di Geometric Intelligence, ha affermato che i modelli di intelligenza artificiale di oggi non sono nemmeno “remotamente intelligenti” perché “tutto ciò che fanno è abbinare i modelli e attingere da enormi database statistici”. Ha respinto il grande modello linguistico di Google LaMDA definendolo solo “un foglio di calcolo per le parole”.
Questa linea di ragionamento, tuttavia, è ingannevolmente banalizzante. Dopotutto, potremmo allo stesso modo inquadrare l’intelligenza umana in un modo altrettanto riduttivo. I nostri cervelli sono “solo” una massa di neuroni interconnessi in un modo particolare, “solo” una raccolta di reazioni chimiche di base all’interno dei nostri crani.
Ma questo non ha senso. Il potere, la magia dell’intelligenza umana non sta nella meccanica particolare, ma piuttosto nelle incredibili capacità emergenti che in qualche modo ne risultano. Semplici funzioni elementari possono produrre sistemi intellettuali profondi. Una cosa è certa: quello dell’intelligenza artificiale e della relazione uomo-macchina, è un tema affascinante per filosofi, registi e scrittori di fantascienza.
Gli sviluppi futuri e le possibili applicazioni dell’intelligenza artificiale, sono oggetto di studio per scienziati e ricercatori che continuano a studiare e sperimentare in una direzione: dar vita a macchine intelligenti, pensanti e dotate di coscienza.