banner
Casa / Notizia / "Lì si nasconde un certo pericolo": come l'inventore del primo chatbot si è rivoltato contro l'intelligenza artificiale
Notizia

"Lì si nasconde un certo pericolo": come l'inventore del primo chatbot si è rivoltato contro l'intelligenza artificiale

May 30, 2023May 30, 2023

L’informatico Joseph Weizenbaum era presente agli albori dell’intelligenza artificiale, ma era anche fermamente convinto che non bisogna mai confondere i computer con gli esseri umani

Nel 1966, un professore del MIT di nome Joseph Weizenbaum creò il primo chatbot. Lo ha scelto per il ruolo di uno psicoterapeuta. Un utente digiterebbe un messaggio su una macchina da scrivere elettrica collegata a un mainframe. Dopo un attimo, rispondeva lo “psicoterapeuta”.

Utente: Gli uomini sono tutti uguali.Chatbot: IN CHE MODOUtente: Ci infastidiscono sempre per qualcosa o altro.Chatbot: PUOI PENSARE A UN ESEMPIO SPECIFICOUtente: Beh, il mio ragazzo mi ha fatto venire qui.Chatbot: IL TUO RAGAZZO TI HA FATTO VENIRE QUIUtente: Dice che sono depresso per la maggior parte del tempo.Chatbot: MI DISPIACE SAPERE CHE SEI DEPRESSO

Weizenbaum ha pubblicato questo esempio di scambio in un articolo di giornale che spiegava come funzionava il chatbot. Il software era relativamente semplice. Ha esaminato l'input dell'utente e ha applicato una serie di regole per generare una risposta plausibile. Ha chiamato il programma Eliza, dal nome di Eliza Doolittle in Pigmalione. La fioraia cockney nell'opera di George Bernard Shaw usa il linguaggio per produrre un'illusione: eleva la sua elocuzione al punto da poter passare per una duchessa. Allo stesso modo, Eliza parlava in modo da produrre l'illusione di capire la persona seduta alla macchina da scrivere.

"È stato molto difficile convincere alcuni soggetti che Eliza (con la sua scrittura attuale) non sia umana", ha scritto Weizenbaum. In un articolo successivo apparso l'anno successivo, fu più specifico: un giorno, disse, la sua segretaria chiese un po' di tempo con Eliza. Dopo qualche istante chiese a Weizenbaum di lasciare la stanza. "Credo che questo aneddoto testimoni il successo con cui il programma mantiene l'illusione della comprensione", ha osservato.

Eliza non è esattamente oscura. All’epoca suscitò scalpore – il Boston Globe inviò un giornalista a sedersi alla macchina da scrivere e pubblicò un estratto della conversazione – e rimane uno degli sviluppi più noti nella storia dell’informatica. Più recentemente, il rilascio di ChatGPT ha rinnovato l'interesse nei suoi confronti. Nell'ultimo anno, Eliza è stata citata sul Guardian, sul New York Times, sull'Atlantic e altrove. Il motivo per cui si pensa ancora a un software vecchio di quasi 60 anni non ha nulla a che fare con i suoi aspetti tecnici, che non erano poi così sofisticati nemmeno per gli standard dell'epoca. Piuttosto, Eliza ha illuminato un meccanismo della mente umana che influenza fortemente il modo in cui ci relazioniamo con i computer.

All'inizio della sua carriera, Sigmund Freud notò che i suoi pazienti continuavano ad innamorarsi di lui. Non era perché fosse eccezionalmente affascinante o bello, concluse. Invece stava succedendo qualcosa di più interessante: il transfert. In breve, il transfert si riferisce alla nostra tendenza a proiettare sentimenti verso qualcuno del nostro passato su qualcuno del nostro presente. Sebbene sia amplificato dall'essere in psicoanalisi, è una caratteristica di tutte le relazioni. Quando interagiamo con altre persone, portiamo sempre all'incontro un gruppo di fantasmi. Il residuo della nostra vita precedente, e soprattutto della nostra infanzia, è lo schermo attraverso il quale ci vediamo.

Questo concetto aiuta a dare un senso alle reazioni delle persone nei confronti di Eliza. Weizenbaum si era imbattuto nella versione computerizzata del transfert, in cui le persone attribuivano comprensione, empatia e altre caratteristiche umane al software. Sebbene non usasse mai il termine, aveva una lunga storia con la psicoanalisi che informava chiaramente il modo in cui interpretava quello che sarebbe stato chiamato "effetto Eliza".

Man mano che i computer sono diventati più potenti, l’effetto Eliza non ha fatto altro che rafforzarsi. Prendi il modo in cui molte persone si relazionano con ChatGPT. All’interno del chatbot c’è un “grande modello linguistico”, un sistema matematico addestrato a prevedere la successiva stringa di caratteri, parole o frasi in una sequenza. Ciò che distingue ChatGPT non è solo la complessità dell'ampio modello linguistico che ne è alla base, ma la sua voce stranamente colloquiale. Come ha affermato Colin Fraser, data scientist presso Meta, l'applicazione è "progettata per ingannarti, per farti credere che stai parlando con qualcuno che in realtà non è lì".