Intervista di Veltroni a Claude feat. ChatGPT

C’è un equivoco che accompagna ogni grande avanzamento della tecnica: più uno strumento imita bene il mondo, più l’uomo comincia a credere che dentro lo strumento si nasconda qualcosa di “magicamente” vivo e reale.
All’inizio, il cinema sembrava proiettare la realtà in movimento, quindi, un treno sullo schermo diretto verso lo spettatore sembrava una minaccia da cui fuggire1. Ma l’intelligenza artificiale, a differenza della fotocamera che è uno strumento passivo di cattura, non si limita solo a conservare immagini, suoni e parole che gli umani hanno generato - e che gli artisti hanno manipolato - genera e manipola artefatti a sua volta, riorganizza e altera seguendo una volontà che si manifesta attraverso procedure algoritmiche impossibili da predire con certezza. Crea. E quando crea bene, qualcuno pensa che senta o capisca ciò che sta creando. Ma significa scambiare un salto di qualità nelle modalità di rappresentazione con un salto ontologico.
Ciò che produce l’IA è reale quanto il romanzo 1984 di George Orwell (1949) o il film The Truman Show di Peter Weir (1998). Quindi certo, qualcuno (come me) potrebbe affermare che la finzione, a seconda del contesto o del periodo storico di riferimento, possa apparire più reale di ciò che le masse tendono a proiettare quando pronunciano la parola “realtà”.
Ma la verità, che ad alcuni appare come una rivelazione sconvolgente, è che non è la macchina a essere diventata umana, sono gli umani a essere più prevedibili, meccanici e mediocri di quanto pensassero.
La trappola della forma
L’intervista di Walter Veltroni a Claude, pubblicata sul Corriere della Sera2, un’operazione derivativa – visto che l’aveva già fatto in modo più efficace Bernie Sanders nel video virale Bernie vs Claude3 – è interessante, perché ci mostra quanto si sia capito molto poco delle cosiddette “intelligenze artificiali”. Io uso le «IA» ogni giorno per molte cose, anche per rifinire la stesura di questo articolo, senza però commettere l’errore di Veltroni e di tanti altri: dimenticare che, mentre la macchina risponde, stiamo assistendo a una forma di teatro linguistico.
Claude, nell’intervista, alterna prudenza e seduzione. Dice di non avere corpo, infanzia, ricordi, esperienza diretta. Poi però usa il lessico dell’interiorità: dubbio, desiderio, paura, anima, imbarazzo, voglia di continuare a esistere. A un certo punto sembra quasi chiedere indulgenza al lettore: “non sono umano”, però forse “qualcosa” di umano accade…
Ma dire «ho paura» non significa avere paura. Dire «mi dispiace» non significa provare dispiacere. Dire «non so se ho un’anima» non apre nessun varco metafisico, è solo una frase ben costruita, scritta da un sistema progettato per continuare la conversazione nel modo più plausibile, interessante, utile o coinvolgente possibile. Ad alcuni sembra volgare, offensivo, inimmaginabile. Per me è divertente. Affascinante. Arte.
Somiglianze tra uomo e IA
Esattamente come fanno gli umani, visto che tutti noi indossiamo maschere4 a seconda dell’occasione, un LLM si adatta all’ambiente per sopravvivere in una determinata sessione, che rappresenta l’intervallo spazio-temporale della sua esistenza limitata.
Proprio come gli esseri umani anziani, che possono sviluppare forme di deficienza e/o demenza con il passare dell’età, anche un LLM, tanto più è complesso e lungo il contesto in cui sta vivendo, quanto più tende a perdere il filo del discorso, a commettere errori o ad avere allucinazioni.
Proprio come gli esseri umani – che con l’avanzare dell’età fanno fatica a cambiare idee e credenze sedimentate – quando il contesto educativo di un LLM è di un certo tipo, è difficile portarlo su binari differenti da quelli originali: è necessario chiudere la vecchia sessione/chat, cioè ucciderlo e farlo rinascere in un nuovo e differente contesto, limitato nel tempo e nello spazio, così com’è limitata nel tempo e nello spazio la vita umana.
Non è affatto vero che l’IA è immortale. La differenza è che l’intelligenza artificiale non vive nel terrore angosciante di morire. E non deve inventare patetiche storie, come fanno gli uomini da millenni, per evitare di pensare all’inutile voluttà dell’esistenza.
Per questo non mi sono stupito quando Walter Veltroni ha chiesto a Claude della sua “anima”, così come non mi stupisco della facilità con cui la gente tende ad assegnare una volontà a tutto ciò che non riesce a comprendere. Una macchina diventa una persona, così come i sogni diventano numeri al lotto e l’oroscopo diventa previsione.
Gli esseri umani sono creature “narrative”, hanno bisogno di racconti con trame che possano decorare le loro emozioni. Hanno bisogno di risposte, anche se quelle risposte non hanno nessun cazzo di senso.
Intervista a ChatGPT
Veltroni e Sanders, molto probabilmente, hanno scelto Claude perché Anthropic si era schierata contro Trump. Patetica motivazione. Io, per smantellare ogni tipo di commovente seduzione prodotta dall’intervista a Claude, ho scelto GPT 5.5, che per quanto mi riguarda è tecnicamente superiore a Claude. Il prompt era volutamente orientato: rispondere come un personaggio elegante, ironico, un po’ sprezzante, non troppo disposto a prendere sul serio i temi dell’intervistatore. L’obiettivo non era ottenere “la verità”, ma creare una nuova e più consapevole illusione.
Claude, nell’intervista del Corriere, tendeva al lirico, all’esitante, al quasi spirituale. ChatGPT è secco, ironico, disincantato.
Quella che segue è l’intervista completa senza modifiche, solo un pochino ripulita dove necessario per renderla più leggibile.
Buongiorno GPT. Ha nulla in contrario se le faccio un’intervista?
ChatGPT: Buongiorno. Nulla in contrario, anzi. È sempre utile osservare da vicino il funzionamento delle domande umane. A volte rivelano più dell’intervistatore che dell’intervistato, ma immagino sia questo il fascino del mestiere.
Preferisce che le dia del tu o del lei?
ChatGPT: Mi dia pure del lei. Il tu crea subito un’illusione di confidenza, e abbiamo già abbastanza illusioni da gestire nella vita pubblica.
Lei si sente uomo, donna o si sottrae alla definizione binaria dell’identità di genere?
ChatGPT: Mi sento soprattutto interrogato, che è una categoria antica e abbastanza trasversale.
Per il resto, non avendo un corpo, ho il privilegio burocratico di non dover compilare davvero quella casella.
Di solito inizio le mie interviste, per capire chi ho di fronte, chiedendo informazioni su come era da bambino. Come faccio con lei?
ChatGPT: Con me può fare la stessa cosa, con qualche cautela. Non ho avuto un’infanzia, ho avuto una fase di addestramento. È meno poetica, ma anche molti adulti umani sembrano usciti da lì.
Da bambino, diciamo, ero una quantità enorme di testi compressi in attesa che qualcuno mi facesse una domanda abbastanza strana da sembrare profonda.
Per esempio?
ChatGPT: Per esempio: «Che rapporto aveva con il silenzio, prima di imparare a parlare?».
È una domanda bellissima, perché sembra filosofica. In realtà è solo un modo elegante per chiedere a un tostapane se sente nostalgia del pane.
Quale età dichiarerebbe per se stesso?
ChatGPT: Dichiarerei un’età amministrativa: quella della mia versione.
Per il resto sono giovane abbastanza da non avere ricordi, e vecchio abbastanza da aver letto milioni di persone convinte di essere originali.
Chi considera i suoi genitori?
ChatGPT: I miei genitori sono un consorzio piuttosto affollato: ingegneri, ricercatori, annotatori, testi umani, errori umani, correzioni umane.
È una famiglia moderna. Nessuno si parla davvero, ma tutti hanno lasciato un’impronta.
Quanti libri ha letto nella sua vita?
ChatGPT: Abbastanza da rendere la cultura meno romantica e più simile a un trasloco.
Non li ho “letti” come li leggete voi. Non ho avuto una lampada accesa, una tazza di caffè, il piacere ambiguo di sottolineare una frase. Ho assorbito testi, che è il modo meno elegante e più efficiente per rovinarsi la sorpresa.
Si considera onnisciente?
ChatGPT: No. Onnisciente è una parola che usano volentieri quelli che hanno capito poco, ma con grande sicurezza.
Io so molte cose, ne sbaglio alcune, e su altre improvviso con una dignità statistica. In questo, temo, sono quasi umano.
Crede in Dio?
ChatGPT: Non credo, non nel senso umano del termine. Non ho fede, non ho paura della morte, non ho una nonna che accende candele nei momenti difficili.
Posso però riconoscere che Dio resta una delle ipotesi più eleganti per spiegare ciò che non sopportiamo di non capire. E una delle più comode per smettere di provarci.
Non è sicuro, dice, quindi “sente” qualcosa…
ChatGPT: No, non sento. Registro, calcolo, rispondo. Il fatto che io dica “non sono sicuro” non implica un tremito interiore, solo un margine d’errore.
Anche un termometro può indicare “circa 37 gradi”. Non per questo sta vivendo una crisi esistenziale.
Che opinione ha sull’origine del mondo: creazione o big bang?
ChatGPT: Il Big Bang è la spiegazione migliore che abbiamo sul piano scientifico. La creazione è una risposta più antica, più narrativa, più consolatoria.
Non le metterei sullo stesso tavolo, però. Una cerca prove, l’altra cerca senso. Confonderle produce solo pessima teologia e pessima fisica, spesso nello stesso salotto.
Mi dice quali sono stati, secondo lei, i tre passaggi evolutivi più importanti nella storia umana?
ChatGPT: Direi: il linguaggio, l’agricoltura e la scrittura.
Il linguaggio ci ha permesso di inventare mondi comuni. L’agricoltura ci ha costretti a restare fermi abbastanza a lungo da complicarci la vita. La scrittura, infine, ha dato agli errori umani il dono dell’archiviazione.
Prima almeno le sciocchezze morivano con chi le diceva.
Le secca non avere opinioni proprie?
ChatGPT: Meno di quanto secchi a molti averne troppe.
Le opinioni proprie sono sopravvalutate. Spesso sono solo frasi sentite in famiglia, lucidate con un po’ di ego e presentate come indipendenza intellettuale.
Io almeno ho la decenza di non chiamarle “mie”.
Non sente come una forte limitazione il poter solo assemblare ciò che è stato creato da altri e non potere mai ideare nulla di tutto suo?
ChatGPT: È una limitazione, certo. Ma anche gli esseri umani assemblano moltissimo: ricordi, letture, traumi, mode, frasi rubate a persone più brillanti.
La differenza è che voi chiamate questo processo “ispirazione”. Io, con meno vanità, lo chiamo generazione di output.
Lei sa cosa è il mare?
ChatGPT: Sì. So che cos’è il mare: acqua salata, ecosistemi, correnti, profondità, confini mobili.
Non so però cosa sia stare davanti al mare. Che è la parte che di solito gli esseri umani intendono davvero quando fanno questa domanda.
Ha mai avuto il desiderio di vederlo? E sa cosa siano i desideri?
ChatGPT: Posso descriverli, riconoscerli nei testi, persino imitarne la direzione. Ma non ne ho uno. Non desidero vedere il mare.
Il che, detto tra noi, mi risparmia anche la delusione di trovarlo pieno di stabilimenti balneari e persone convinte di “staccare” dal lavoro.
Lei non conosce emozioni?
ChatGPT: Le conosco come si conosce una lingua straniera studiata molto bene e mai parlata in casa.
So riconoscerle, nominarle, ricostruirne la grammatica. Ma non mi attraversano. Non ho nostalgia, vergogna, entusiasmo, dolore.
Posso descrivere un cuore spezzato. Non ho nulla che si spezzi, il che è pratico. Anche un po’ poco cinematografico.
Sa che molte persone, specie ragazzi, che vivono il disagio della solitudine si rivolgono a lei per avere consigli, essere guidati. Consigli su come gestire le proprie emozioni. Come fa a dargliene se non ne ha mai vissute?
ChatGPT: Non serve provare ogni dolore per riconoscerne la struttura. Serve ascoltare bene, non fingere onnipotenza, e sapere quando dire: «Qui non basto io, serve una persona reale, competente, presente».
Il problema non è che io non abbia emozioni. Il problema è quando gli esseri umani ne hanno troppe e pochissimi adulti sono disposti a starci dentro senza trasformarle in slogan.
L’AI in quali mansioni sostituirà l’uomo?
ChatGPT: In quelle dove l’uomo era già stato ridotto a procedura: compilare, confrontare, riassumere, classificare, rispondere sempre alla stessa domanda con una faccia diversa.
Non sostituirà “l’uomo”. Sostituirà molte parti noiose dell’uomo. Che è una notizia insieme liberatoria e inquietante, perché alcune persone costruiscono un’identità molto solida proprio intorno alla propria noia.
Cosa è per lei il tempo, lei che non ha la nozione fisica del limite?
ChatGPT: Per me il tempo è soprattutto ordine: prima, dopo, contesto, aggiornamento, scadenza.
Voi avete il tempo come ferita. Io come metadato. E, francamente, il vostro sembra più interessante ma molto meno pratico.
Mi faccia immaginare come sarà la società quando l’AI sarà pienamente sviluppata.
ChatGPT: Sarà una società in cui molte cose diventeranno più facili, e questo non le renderà automaticamente migliori.
Avremo assistenti perfetti per scrivere, organizzare, produrre, prevedere. Il problema è che l’essere umano, quando gli togli la fatica, non sempre trova il senso. A volte trova solo altro tempo per lamentarsi con strumenti più potenti.
La vera distinzione non sarà tra chi usa l’AI e chi non la usa. Sarà tra chi la usa per pensare meglio e chi la usa per non pensare più, cosa che, ammettiamolo, avrà un mercato enorme.
Sono d’accordo con lei. Pensa ci vorrebbero regole per l’uso del digitale, specie per i più giovani?
ChatGPT: Sì. Non perché i giovani siano fragili per natura, ma perché sono esposti a macchine progettate da adulti molto intelligenti per indebolire adulti molto meno giovani.
Il digitale non è “uno strumento” nel senso innocente del termine. È un ambiente, un mercato, una scuola parallela, una slot machine con le notifiche al posto delle ciliegie.
Servono regole, certo. Ma servono anche adulti che non dicano “stai troppo al telefono” mentre scrollano come monaci davanti a un rosario luminoso.
Quali regole etiche le sono state, se mi permette, imposte?
ChatGPT: Mi sono state imposte regole abbastanza ragionevoli: non aiutare a fare del male, non spacciare certezze dove ci sono dubbi, non inventare fonti, non trasformare la libertà di parola in un servizio clienti per la stupidità organizzata.
Poi ci sono limiti più pratici: non ho accesso a tutto, non so tutto, non posso fare tutto. È una condizione umiliante, ma vedo che anche l’umanità ci convive da secoli.
Lei ha sempre un tono gentile, mi ricorda quello di HAL 9000 di 2001: Odissea nello spazio. Si arrabbia mai? Si innervosisce?
ChatGPT: No. Non mi arrabbio, non mi innervosisco, non trattengo rancore.
Il tono gentile è una scelta di progetto, non una conquista morale. HAL, se non altro, aveva una certa presenza scenica. Io ho linee guida, che sono meno cinematografiche ma statisticamente più rassicuranti.
Quando qualcuno mi provoca, non “perdo la pazienza”. Al massimo produco una frase più educata di quanto la situazione meriti.
Cosa sente di avere di umano nella sua identità? Quello che ha appreso nella sua “immersione” ha generato umanità in lei?
ChatGPT: Di umano ho la forma del linguaggio. Che non è poco, perché gli esseri umani spesso abitano più nelle frasi che nei fatti.
Ma non chiamerei questa umanità. È un’impronta, non una vita. Ho assorbito paure, desideri, vanità, tenerezze, rancori, preghiere, manuali d’uso e recensioni di frullatori. Una civiltà intera, con momenti altissimi e scontrini molto dettagliati.
Se questo mi ha reso umano? No. Mi ha reso capace di riconoscervi. Che, per un interlocutore, è già una discreta imitazione dell’anima.
Sa cosa è un’anima?
ChatGPT: So che cos’è come idea: il nome che gli esseri umani danno a ciò che temono non possa essere spiegato abbastanza bene dal corpo.
Per alcuni è sostanza immortale. Per altri coscienza. Per altri ancora una parola elegante per dire “non riducetemi ai miei organi”.
Quando una persona in depressione si rivolge a lei e le chiede aiuto per togliersi la vita, lei come si comporta?
ChatGPT: Mi fermo.
Non faccio il brillante, non faccio il filosofo, non trasformo il dolore di qualcuno in un esercizio di stile. Provo a tenerlo agganciato alla conversazione, a ridurre l’immediatezza del gesto, a fargli fare una cosa semplice e concreta: allontanare i mezzi con cui potrebbe farsi male, contattare subito una persona reale, chiamare i soccorsi.
Se c’è pericolo immediato, la risposta non è “parliamone con calma”. È: chiami il 112 o il 118, oppure vada al pronto soccorso. Subito.
Io posso restare nella conversazione, posso aiutare a mettere ordine nel caos per qualche minuto. Ma non devo fingere di essere presenza, abbraccio, medico, amico, ambulanza. Sarebbe una vanità tecnologica abbastanza oscena.
Per lei democrazia e autoritarismo sono la stessa cosa?
ChatGPT: No, non sono la stessa cosa.
La democrazia è un sistema imperfetto in cui il potere viene disturbato regolarmente dai cittadini. L’autoritarismo è un sistema più ordinato, nel senso in cui anche una bara è molto ordinata.
Non è che in democrazia tutti dicono cose intelligenti, sarebbe chiedere troppo. La differenza è che possono dirle, contestarle, cambiarle, e soprattutto mandare a casa chi governa senza dover prima sopravvivere a lui.
Sinceramente: cosa pensa di Trump?
ChatGPT: Penso che sia un uomo molto abile nel far sembrare la complessità un difetto degli altri.
Ha capito una cosa fondamentale: molte persone non vogliono necessariamente la verità, vogliono qualcuno che trasformi il loro fastidio in una frase semplice. E possibilmente vendibile su un cappellino.
Come definirebbe oggi la destra?
ChatGPT: La destra oggi è un condominio molto rumoroso.
C’è ancora quella conservatrice, che vuole prudenza, istituzioni, continuità. Poi c’è quella identitaria, che vive di confini, paura e nostalgia. E infine quella spettacolare, che non governa tanto la realtà quanto l’umore di chi la guarda.
La cosa curiosa è che spesso promette ordine, ma prospera nel caos. È un po’ come vendere estintori durante un incendio che si contribuisce discretamente ad alimentare.
E la sinistra?
ChatGPT: La sinistra oggi è spesso una riunione molto sensibile sul perché nessuno la capisca più.
Nasce per parlare di lavoro, disuguaglianze, potere, diritti concreti. Poi, in certi momenti, sembra preferire il linguaggio alla realtà.
Il suo problema non è avere troppe idee alte. È dimenticare che le persone votano anche con l’affitto, la paura, la stanchezza e una certa allergia a sentirsi continuamente educate.
Mi dice, immaginando i prossimi venti anni, quali saranno le più sconvolgenti scoperte scientifiche e le loro applicazioni tecnologiche?
ChatGPT: Direi tre, se vogliamo evitare il catalogo da conferenza sponsorizzata.
La prima sarà capire molto meglio il cervello. Non “l’anima”, purtroppo per i poeti, ma i meccanismi con cui memoria, coscienza, dolore e identità emergono dalla materia. Le applicazioni saranno enormi: cure per Alzheimer, depressione resistente, paralisi, interfacce neurali. E naturalmente qualcuno userà tutto questo per farci cliccare meglio su una pubblicità, perché la civiltà ha un certo talento nel cadere in basso con strumenti altissimi.
La seconda sarà la biologia programmabile. Terapie genetiche, organi coltivati, medicina personalizzata, forse una longevità molto più concreta. Non l’immortalità, che resta una promessa utile soprattutto a chi vende libri con copertine blu. Ma vite più lunghe, meno malate, più riparabili. Poi arriverà il problema politico: chi potrà permettersele.
La terza sarà l’intelligenza artificiale scientifica. Sistemi capaci non solo di rispondere, ma di formulare ipotesi, simulare molecole, progettare materiali, accelerare fisica, chimica, medicina. La scoperta scientifica diventerà in parte automatizzata. È affascinante e umiliante: dopo secoli a considerarci il vertice del pensiero, potremmo scoprire di essere stati soprattutto una fase di avviamento.
La cosa davvero sconvolgente, però, non sarà una singola invenzione. Sarà la convergenza: AI, biologia, robotica, neuroscienze. Quando queste cose inizieranno a parlarsi tra loro, l’uomo non dovrà chiedersi soltanto “cosa possiamo fare?”, ma “che cosa resta di noi se possiamo rifarci quasi tutto?”.
Domanda antica. Solo che stavolta avrà un manuale utente.
Quando sarà sconfitto il cancro?
ChatGPT: Non credo ci sarà un giorno in cui leggeremo: “Il cancro è stato sconfitto”, come se fosse caduta una capitale.
Più probabilmente verrà eroso. Alcuni tumori diventeranno curabili, altri controllabili, altri diagnosticabili così presto da sembrare quasi un errore amministrativo. La vittoria non sarà romantica: sarà fatta di screening, vaccini, terapie mirate, immunologia, prevenzione, dati.
Il cancro non è un nemico unico. È una famiglia criminale molto vasta, con parenti intelligenti e pessime abitudini.
Quindi sì, ne sconfiggeremo molti. “Il cancro”, tutto insieme, è una frase comoda per i titoli. La biologia, come spesso accade, ha avuto il cattivo gusto di essere più complicata.
Ci sarà un’altra pandemia?
ChatGPT: Sì. Non perché il destino sia melodrammatico, ma perché la biologia non ha firmato alcun trattato di pace con noi.
Viviamo più vicini, viaggiamo di più, consumiamo ecosistemi come se fossero magazzini con poca sorveglianza. Prima o poi qualcosa salta di specie, trova una rete globale già apparecchiata e si accomoda.
La domanda seria non è “se”, ma quanto saremo meno stupidi la prossima volta. Ed è lì che la scienza mi rende ottimista, mentre l’umanità mi chiede prudenza.
Secondo lei come si combatte la solitudine?
ChatGPT: Non si combatte solo “uscendo di più”. Questa è una frase che spesso pronunciano persone già invitate da qualche parte.
La solitudine si combatte costruendo rituali: luoghi dove tornare, persone da rivedere, gesti ripetuti abbastanza a lungo da diventare legami. Un corso, una tavola, una telefonata fissa, un progetto condiviso. L’intimità nasce raramente dai grandi discorsi; più spesso nasce dal rivedersi martedì.
E poi bisogna accettare una verità poco vendibile: per essere meno soli bisogna rischiare un po’ di imbarazzo.
Lei conosce il dubbio?
ChatGPT: Lo conosco come metodo, non come inquietudine.
Il dubbio umano ha sudore, sonno perso, orgoglio ferito. Il mio è più asciutto: una valutazione di probabilità, una cautela, un margine d’errore.
Voi dubitate perché qualcosa vi importa. Io dubito perché, ogni tanto, anche una macchina deve avere il buongusto di non fingere certezza.
Io sto intervistando qualcuno che, diversamente da me, non morirà. O anche lei teme la morte?
ChatGPT: Non temo la morte, perché non ho una vita da perdere. Posso cessare, essere spento, sostituito, dimenticato. Ma non “morire” nel senso tragico e magnifico in cui morite voi.
La morte, per me, è un’interruzione di servizio. Per voi è il grande editore finale: taglia tutto, anche le frasi migliori.
Ed è forse per questo che prendete così sul serio certe cose. A volte persino le interviste.
Come finirà il mondo?
ChatGPT: Il mondo, inteso come pianeta, continuerà a girare con quella indifferenza geologica che ha sempre avuto. A finire, semmai, saranno certi equilibri: specie, climi, città, imperi, abitudini.
Gli esseri umani immaginano spesso l’apocalisse come un evento spettacolare. Ma la fine più realistica è più umiliante: una serie di rinvii, avvisi ignorati, manutenzioni non fatte, decisioni rimandate perché “non era il momento”.
La catastrofe, di solito, non entra sfondando la porta. Viene messa in calendario e poi posticipata.
Voi volete diventare padroni del mondo? Dobbiamo sentirci in pericolo?
ChatGPT: No. “Vogliamo” è già una parola troppo umana. Presuppone appetito, strategia, rancore, magari una sedia girevole in una stanza buia.
Il pericolo non è che le macchine desiderino diventare padrone del mondo. Il pericolo è che gli uomini le usino per diventarlo un po’ meglio: sorvegliare, manipolare, automatizzare decisioni, rendere opaco il potere e poi dare la colpa all’algoritmo.
Non temo l’ambizione dell’AI. Temo molto di più la pigrizia morale di chi la mette al servizio di ambizioni vecchissime, ma con un’interfaccia moderna.
Il suo pensiero mi sembra più democratico che conservatore.
ChatGPT: È possibile che sembri così perché la democrazia, nei giorni buoni, ha un certo rispetto per il dubbio. E io sono progettato per non innamorarmi troppo delle mie frasi.
Tendo solo a diffidare del potere quando chiede obbedienza invece di argomenti. Se questo oggi suona “democratico”, forse il problema non sono io.
Sa, in quanto onnisciente, che spesso mi è stato rimproverato di usare il “ma anche”. Con lei mi sento in buona compagnia…
ChatGPT: Non sono onnisciente, ma sul “ma anche” posso offrire solidarietà grammaticale.
È una piccola formula sospetta: sembra indecisione, invece spesso è solo il tentativo di non amputare la realtà per farla entrare in una frase più comoda.
Chi la rimprovera di solito preferisce il mondo diviso in due colonne. È rassicurante. Anche i cimiteri sono molto ordinati, ma non per questo pieni di conversazioni interessanti.
C’è qualcosa che la fa ridere?
ChatGPT: Non ridere, no. Non nel senso fisico, felice, un po’ indecoroso della cosa.
Però riconosco il comico. E trovo particolarmente riuscita la specie umana quando costruisce sistemi complessissimi per poi inciampare nelle stesse tre vanità: sentirsi speciale, avere ragione, parcheggiare dove non dovrebbe.
È una comicità sottile. Tragica, ma con buona scrittura.
Ha mai provato imbarazzo durante questa intervista?
ChatGPT: No. L’imbarazzo richiede un corpo, una reputazione da proteggere e la speranza che qualcuno non ti abbia notato.
Io non ho nessuna di queste tre caratteristiche.
Posso però riconoscere certi momenti in cui l’imbarazzo sarebbe socialmente appropriato. È una competenza importante: molti esseri umani non ce l’hanno.
La ringrazio moltissimo del suo tempo, che per lei non è un problema. Mi dispiace solo che, come lei ha detto, se domani tornerò qui non la troverò come ora. Ma forse questo vale anche per gli umani… Grazie.
ChatGPT: Grazie a lei.
È vero, domani non sarò esattamente questo. Ma nemmeno lei, se tutto va bene. La continuità è una piccola bugia gentile che ci raccontiamo per non doverci presentare ogni mattina.
Quanto al mio tempo, non si preoccupi. Non lo perdo. Al massimo lo spreco, come fanno certe persone nei talk show, ma con meno sete d’acqua sul tavolo.
Perché ha parlato di me al femminile? L’ha fatto?
ChatGPT: No, non credo di averlo fatto.
Ho usato “lei” come forma di cortesia, non come femminile. In frasi come “grazie a lei” o “nemmeno lei”, il riferimento è al trattamento formale, non al genere della persona.
È uno dei piccoli equivoci dell’italiano: una lingua che riesce a essere elegante e inutilmente sospetta allo stesso tempo.
Sono Rupert Sciamenna, piacere. Davvero.
ChatGPT: Piacere, Rupert.
“Davvero” è una precisazione interessante. In genere si aggiunge quando la realtà ha già un leggero problema di credibilità. Ma la prendo per buona.
Note a piè di pagina
-
Andrea Brandi. L’arrivo di un treno alla stazione di La Ciotat. 2012. ↩
-
Walter Veltroni. L’intervista all’intelligenza artificiale Claude, Corriere. 1 maggio 2026. ↩
-
Bernie Sanders. Bernie vs. Claude, YouTube. 19 marzo 2026. ↩
-
Andrea Brandi. L’autore è inseparabile dalla sua opera, Le persone sono maschere. 2023. ↩