Cultura & Società

Intelligenza artificiale: l’etica da salvare

Il docente all'Università di Pisa ci anticipa i temi del suo intervento al corso di formazione per giornalisti promosso dall'Ucsi Toscana in programma a Quercianella il 15 e 16 settembre

Sono stato invitato dall’Ucsi Toscana a introdurre venerdì 15 settembre a Quercianella l’ormai tradizionale corso di aggiornamento professionale per giornalisti «Nuove reti, rinnovate professioni», dedicato quest’anno all’intelligenza artificiale «tra rischi, etica e opportunità per l’informazione». Ciò che oggi va messo maggiormente a fuoco di tale tema è senz’altro una sua più recente articolazione, la cosiddetta intelligenza artificiale generativa, nella quale l’uso di algoritmi è finalizzato a generare contenuti: ad esempio, testi, immagini, suoni. GPT (Generative Pre-trained Transformer) è uno degli algoritmi generativi più famosi: la sua fama è dovuta al fatto che una sua versione conversazionale – Chat GPT – è stata rilasciata pubblicamente e gratuitamente allo scopo di «addestrare» il programma, vale a dire per fare in modo che, grazie all’interazione con gli utenti, esso venisse sempre più perfezionato nella sua capacità di generare testi plausibili e coerenti. Una delle caratteristiche dei programmi di IA è infatti quello di poter «imparare», cioè di modificare i propri «comportamenti», attraverso l’interazione con un ambiente.
Questo è ciò che maggiormente sta suscitando attenzione nel dibattito pubblico, almeno per due motivi. Il primo è che, in tal modo, i programmi di IA manifestano un certo, variabile grado di autonomia e, appunto perciò, possono sfuggire alla previsione e al controllo dell’essere umano che li ha elaborati. Il secondo è che essi sembrano altresì esprimere una sorta di “creatività”: la capacità cioè di sviluppare contenuti nuovi, in forme in qualche modo pure nuove, a partire da un bagaglio di nozioni già posseduto (o magari attinto dal web). Tutto ciò sta suscitando una diffusa preoccupazione. Finora si riteneva che autonomia e creatività fossero caratteristiche proprie solo degli esseri umani e che certe attività e professioni non potessero affatto essere esercitate da semplici programmi. Ora pare invece che non sia più così.
La professione giornalistica è indubbiamente creativa. Non si tratta solamente di raccogliere e diffondere informazioni, ma di verificarle, certificarle, interpretarle, contestualizzarle, proporle in maniera giusta e comprensibile al proprio pubblico. Per far questo non basta conoscere i fatti: bisogna saperli confezionare secondo forme adeguate che s’imparano con gli anni. Da tempo, peraltro, l’IA è usata nelle redazioni per gestire dati, aggregarli, elaborarli, soprattutto quando sono in numero enorme. Ora però le cose sono diverse: i programmi di IA sono in grado di sostituire alcune attività tipicamente giornalistiche.
Un altro modo d’incidere con questi programmi nello spazio dell’informazione riguarda poi il posizionamento delle notizie. La tecnologia le seleziona in base al loro appeal: di conseguenza la dignità e il posizionamento di una notizia finiscono per dipendere dai gusti del pubblico che deve essere informato. Lo stesso effetto che è proprio dei social – la cosiddetta <+corsivob>filter bubble<+tondob>, vale a dire la bolla di filtraggio rispetto alla quale una persona trova in una rete sociale solo gente che la pensa come lei – adesso, grazie all’uso di ben precisi algoritmi, viene esteso all’intero ambito dell’informazione. Con un effetto di circolarità – io trovo messe in evidenza in rete proprio le notizie che mi aspetto – che falsa la percezione di ciò che sta accadendo d’importante, di significativo per tutti, nel mondo.
Tutto ciò, e molto altro, sta maturando con l’applicazione dell’IA all’ambito della comunicazione giornalistica. Le conseguenze per la professione sono molteplici. Non è detto che tali processi possano essere <+corsivob>tout court<+tondob> fermati: i criteri dell’efficacia e dell’efficienza, e soprattutto la convenienza economica nell’utilizzo di questi programmi, spingono a proseguire nella loro elaborazione e applicazione. Tuttavia è bene essere consapevoli di ciò che tali trasformazioni comportano, anche per evitare semplicemente di subirle. Su tre di queste conseguenze mi voglio brevemente soffermare: i cambiamenti nella professione giornalistica; i cambiamenti nella qualità dell’informazione; i cambiamenti nella fruizione dell’informazione stessa.
Del primo punto si parla già da tempo. Come nel caso di altre professioni, ciò che si teme è che, invece di un miglioramento e di un potenziamento della propria attività, si realizzi piuttosto anche qui, nel migliore dei casi, un <+corsivob>deskilling,<+tondob> cioè una perdita di competenze da parte del professionista, e nel peggiore, in prospettiva, una sostituzione di ciò che questi può fare con ciò che più velocemente e più compiutamente è in grado di fare il programma di IA. Non si tratta solo di una probabile perdita di posti di lavoro, quanto piuttosto di fare in modo che non vengano meno alcune caratteristiche fondamentali della professione giornalistica richiamate prima: l’interpretazione dei dati, la loro contestualizzazione, il loro collegamento ad altri ambiti d’interesse dei possibili lettori, la loro presentazione a pubblici di volta in volta differenziati.
Riguardo al secondo punto, quello relativo ai cambiamenti nella qualità dell’informazione, non mi riferisco solamente alla correttezza delle notizie elaborate e proposte mediante un algoritmo. Sappiamo che non sempre tale correttezza è garantita, ma sappiamo pure che l’addestramento del programma porta di solito a un progressivo miglioramento della sua affidabilità. Mi riferisco invece, soprattutto, al tipo di notizia che viene diffuso e al modo in cui le informazioni sono presentate e veicolate. Rispetto a ciò è necessario intervenire preventivamente nell’elaborazione di certi programmi, inserendovi criteri che possano permettere di selezionare le informazioni secondo le differenti esigenze del dibattito pubblico. Ciò che va evitato è insomma che venga fatta una selezione sulla base di un criterio unilaterale: com’è ad esempio quello, d’impianto utilitaristico, che privilegia il numero dei contatti realizzati e realizzabili nel web.
Quanto all’ultimo aspetto menzionato, esso riguarda l’opinione pubblica, o ciò che oggi può essere detta tale. Ho già mostrato altrove che, nell’epoca dei social, l’opinione pubblica si è trasformata in un pubblico di opinionisti. Adesso questo pubblico, dopo aver rinunciato alla possibilità di una costruttiva sintesi fra i vari gruppi di opinione, rischia di dover rinunciare anche a quella capacità d’interazione che si realizza tra le diverse posizioni e tra i vari portatori d’interesse che sono collocati all’interno dello spazio democratico, nella misura in cui tale spazio, grazie alle sue regole, consente di prendere una decisione comune. Ciò può accadere non solo perché non ci sono più unicamente soggetti umani a gestire le informazioni, ma soprattutto perché, in prospettiva, gli agenti artificiali che li sostituiscono sono in grado, grazie alla loro potenza, di occupare e d’indirizzare ogni dimensione del dibattito pubblico. Se ciò accadesse, però, dovremmo rinunciare a quelle forme di manifestazione democratica che proprio sulla libertà d’informazione e di espressione trovano il loro fondamento.
In conclusione, è bene riflettere fin da subito su certe situazioni che stanno maturando. Ed è bene farlo non già con l’intenzione – ingenua e velleitaria – di bloccare immediatamente il loro procedere, bensì con la volontà di comprenderle, con l’idea di accompagnarle, con l’intenzione di evitare che certi esiti vengano acriticamente accolti: come in parte è avvenuto nel recente passato e come rischia ancora di accadere, per la tendenza umana ad accettare una sorta di «servitù volontaria».
E invece per il raggiungimento di questi scopi può essere d’aiuto l’etica. A ciò, più precisamente, può servire l’etica dell’interazione fra l’agire umano e l’agire dei dispositivi artificiali. È quanto tutti noi, sia nelle nostre professioni che nelle attività che fuoriescono dalla sfera professionale, è importante che impariamo fin d’ora a conoscere e a praticare.

Il programma di Quercianella

L’intelligenza artificiale. Tra rischi, etica e opportunità per l’informazione» è il tema del corso di formazione per giornalisti, promosso dall’Unione cattolica stampa italiana della Toscana, in programma il 15 e il 16 settembre presso la Casa San Giuseppe a Quercianella (Livorno).
La prima giornata dei lavori, il pomeriggio di venerdì 15 settembre (dalle 15), viene aperta da Vincenzo Varagona, presidente nazionale Ucsi, e prevede gli interventi di Adriano Fabris, docente nel dipartimento di Civiltà e forme del sapere dell’Università di Pisa («L’etica della responsabilità»), del costituzionalista Emanuele Rossi («Intelligenza artificiale e diritto: evoluzione in Italie e in Europa»), e di Antonello Giacomelli, membro dell’Autorità per le garanzie nelle comunicazioni («Libertà di espressione, nuovi media e intelligenza artificiale»).
La mattina di sabato 16 settembre (dalle 9) sono previsti gli interventi di Luigi Rancilio, giornalista di Avvenire («I nuovi scenari del giornalismo digitale»), di Andrea Tomasi, docente presso il dipartimento di Ingegneria dell’informazione della Scuola Sant’Anna di Pisa e consigliere di Weca-web cattolici («L’umanesimo tecnologico»). Chiuderà la mattinata una tavola rotonda su «Intelligenza artificiale e applicazione nel giornalismo», moderata da Domenico Mugnaini, direttore di Toscana Oggi.