«… e vissero per sempre felici e contenti». O no?

Paolo Costa
4 min readJan 21, 2023

Su un possibile bias narrativo di ChatGPT e sul rischio che le storie dell’algoritmo finiscano tutte nello stesso, noiosissimo modo.

James Sant, The Fairy Tale, 1845. The painting depicts a mother with a book in her hand, telling a story to her child.
James Sant, The Fairy Tale, 1845

Ho chiesto a Chat GPT: «definisci la trama di un romanzo d’amore fra il commesso di un negozio di scarpe e una giovane cliente». Vi potreste domandare: perché proprio il commesso di un negozio di scarpe? E perché la cliente è giovane? Non lo so. La vita è fatta di incontri casuali fra persone che il destino sceglie a caso. Ecco che cosa mi ha restituito l’algoritmo:

Il commesso del negozio di scarpe, un giovane uomo timido e riservato, si innamora della giovane cliente non appena la vede entrare nel negozio. Lei è bella, intelligente e divertente, ed è immediatamente attratta dalla sua conoscenza approfondita dei prodotti in vendita. I due iniziano a parlare e a conoscersi meglio, e presto si rendono conto di avere molte cose in comune. Il commesso si sente sempre più attratto dalla giovane cliente, ma non sa come dichiararsi. Alla fine, trova il coraggio di invitarla ad uscire per un caffè. Lei accetta, e i due iniziano a frequentarsi. La relazione tra il commesso e la giovane cliente diventa sempre più forte, ma non mancano i problemi. Lui deve superare la sua timidezza e la sua riservatezza, e lei deve fare i conti con i pregiudizi della sua famiglia e dei suoi amici, che non vedono di buon occhio il suo rapporto con un commesso. Alla fine, dopo molte difficoltà, i due riescono a superare tutti gli ostacoli e si dichiarano il loro amore. Iniziano una vita insieme felice e appagante, e vivono per sempre felici e contenti.

Un po’ banale, forse. Ma come primo approccio non c’è male. È la fine dell’esclusività umana nell’ambito della competenza narrativa? Certo, occorre constatare che il modello linguistico di ChatGPT esibisce diverse capacità: esso sembra in grado non solo di riconoscere la struttura di alto livello che regola l’organizzazione del linguaggio naturale, ma anche di applicare il procedimento analogico per interpretare la trama di una storia e di comprendere il significato di alcuni concetti astratti (William L. Benzon, Discursive Competence in ChatGPT, Part 1: Talking with Dragons Version 2, 11 gennaio 2023: https://ssrn.com/abstract=4318832). Insisto sul fatto che si tratta di un’esibizione, la quale non implica alcuna analogia sostanziale fra i processi mentali di un essere umano e quelli computazionali della macchina. Per usare le parole di Alan Turing, si tratta di un «imitation game» (Computing Machinery and Intelligence, in «Mind», LIX, 236, ottobre 1950, pp. 433–460: https://doi.org/10.1093/mind/LIX.236.433).

L’aspetto che qui mi interessa è la capacità di ChatGPT di lavorare a livello di funzioni narrative. Tale capacità permette di prescindere dall’identità degli attori coinvolti e dallo sfondo su cui essi si muovono, per costruire storie. Com’è noto, fu Vladimir Propp a riconoscere la presenza di elementi unificanti all’interno di un gran numero di fiabe, identificandoli a livello non tanto di contenuti quanto di funzioni (Morfologia della fiaba, Torino, Einaudi, 1966).

Ora, sembra che ChatGPT abbia applicato il modello di Propp per costruire la trama del suo racconto. Intanto c’è una prova da superare: il commesso «non sa come dichiararsi» alla giovane cliente, ma alla fine «trova il coraggio di invitarla ad uscire per un caffè». Poi ci sono un divieto e un’infrazione: nel momento in cui cominciano a frequentarsi, infatti, il commesso e la giovane cliente violano una norma sociale e suscitano la disapprovazione della famiglia di lei, un po’ come capita a Giulietta e Romeo. Successivamente, c’è il superamento dell’impedimento: «dopo molte difficoltà, i due riescono a superare tutti gli ostacoli». Infine, c’è il matrimonio: «iniziano una vita insieme felice e appagante, e vivono per sempre felici e contenti». Lo schema è rassicurante: lo stato di quiete viene ristabilito.

Se ChatGPT sta applicando uno schema, questo schema è anche il suo bias, ossia un pattern cognitivo che distorce la verità. Qui la distinzione non è tanto fra storie reali e storie artificiali. Tutte le storie sono artificiali. Perché, come Wim Wenders fa dire a un personaggio del suo bellissimo film Lo stato delle cose, «le storie esistono solo nelle storie,

mentre la vita scorre nel corso del tempo senza bisogno delle storie». Siamo noi che siamo mossi dal bisogno di strutturare la realtà attraverso il pensiero narrativo. Dobbiamo rappresentare gli eventi all’interno di schemi, ovvero sequenze di scene, costituite a loro volta da un certo numero di azioni (Jerome Bruner, La fabbrica delle storie. Diritto, letteratura, vita, Roma-Bari, Laterza, 2020).

La distinzione, semmai, è fra verità menzogna. Dove la menzogna è una forma di slealtà nei confronti della vita. E noi sappiamo che, nella vita, non sempre capita di vivere «felici e contenti». Per questo le storie di ChatGPT rischiano di non avere consistenza. Esse sono frutto di calcolo, non di immaginazione. Quell’immaginazione che ci permette di scartare dagli schemi, di finire il nostro racconto in modo inatteso e, in buona sostanza, di esistere: «Se non si sa ripetere la vita nell’immaginazione non si può mai essere del tutto vivi, la ‘mancanza di immaginazione’ impedisce alla gente di esistere. Siate ligi alla vostra storia, […]: siate ligi alla vita, non create con la fantasia, ma accettate ciò che la vita vi dà, mostratevi degni di qualunque cosa vi dia ricordandola e riflettendoci sopra, ripetendola, insomma con l’immaginazione; è questo il modo di rimanere vivi» (Hannah Arendt, Nota, in Karen Blixen, Dagherrotipi, Milano, Adelphi, 1995, p. 332).

--

--

Paolo Costa

Postmedia, digital humanities, relationships between technology and societal change.