Giornalismo e Intelligenza artificiale: corso di formazione per imparare come usarla
L’IA è una realtà impiegata quotidianamente oggi nelle redazioni. Molti però vedono in essa ancora un pericolo: è davvero così? E quali sono invece le opportunità? A rispondere a queste domande sarà il corso in 2 lezioni “Giornalismo e intelligenza artificiale” che si terrà nei mesi di giugno e luglio 2024. Docente è il giornalista Antonio Rossano, coordinatore dell’Osservatorio sul giornalismo digitale dell’Ordine nazionale e manager dell’agenzia di comunicazione Interskills srl. 1. Giornalismo e Intelligenza artificiale, qual è ad oggi il rapporto tra queste due realtà? A.R: "L’intelligenza artificiale è un insieme di tecnologie che possono fornire strumenti per la “cassetta degli attrezzi” della/del giornalista a patto però che ella/egli ne diventi padrone comprendendone il funzionamento, le possibilità, i limiti ed i pregiudizi che sono stati acquisiti, in fase di addestramento, dai modelli di linguaggio. In sostanza il giornalista dovrebbe continuare a fare il proprio lavoro, verificando e filtrando le informazioni che, in questo caso, sono prodotte da una fonte nuova e non del tutto attendibile. D’altra parte la tecnologia non è un processo che si può arrestare, si può cercare di governarlo, di farne parte, di utilizzarlo. Ma fermarlo proprio no. In mancanza i giornalisti dovranno essere affiancati da figure professionali “tecniche” che abbiano padronanza di questi strumenti delegando ad esse però anche parte della propria professionalità, il che non è auspicabile. Quello che tutti ci aspettiamo è una verticalizzazione delle competenze dei giornalisti, competenze che possano renderli autonomi ed in grado di navigare questi nuovi mari in cui circolano le informazioni. Nel frattempo, l’intelligenza artificiale è già presente nella maggior parte delle redazioni a livello globale ed anche nel nostro paese, come emerge dal Report 2024 dell’Osservatorio sul giornalismo digitale dell’Ordine dei giornalisti che coordino. Molte redazioni utilizzano questi strumenti per svolgere compiti ripetitivi basati su elaborazione di dati, come la redazione di bollettini sportivi o di borsa. Ma è indubbio, dopo il grande e repentino sviluppo dell’Intelligenza artificiale generativa nel corso del 2023, l’uso anche per la creazione di testi, immagini, traduzioni è una realtà. 2. Molti vedono l’intelligenza artificiale come un pericolo per il giornalismo: quali sono, secondo lei, i possibili rischi legati al suo utilizzo? A.R: "L’intelligenza artificiale (IA) rappresenta una rivoluzione nel giornalismo, portando con sé sia opportunità che rischi significativi. Uno dei principali rischi è la perdita di posti di lavoro. L'automazione può sostituire compiti ripetitivi e meccanici, riducendo la necessità di personale umano per attività come la scrittura di articoli di routine e la raccolta di dati. Un altro rischio è la diffusione di informazioni false o fuorvianti. Le IA possono essere utilizzate per creare notizie false e deepfake con una velocità e una scala senza precedenti. La capacità di generare contenuti realistici ma falsi può minare la fiducia del pubblico nei media, rendendo più difficile per i giornalisti distinguere la verità dalla menzogna e mantenere l'integrità del loro lavoro. C'è anche il pericolo che l'IA possa perpetuare e amplificare i pregiudizi esistenti. Gli algoritmi di IA sono spesso addestrati su dati storici che possono riflettere pregiudizi culturali e sociali. Senza supervisione, queste tecnologie possono replicare e amplificare tali bias, influenzando la copertura delle notizie e perpetuando stereotipi negativi. Un ulteriore rischio riguarda la perdita della creatività e dell'intuizione umana. Il giornalismo non è solo raccolta e presentazione di fatti, richiede anche sensibilità, empatia e una profonda comprensione delle dinamiche umane. L'affidamento eccessivo sull'IA potrebbe portare a una produzione di contenuti più standardizzata e meno ispirata, riducendo la qualità delle narrazioni giornalistiche. L'uso dell'IA nel giornalismo solleva anche preoccupazioni etiche. La trasparenza nell'uso degli algoritmi è cruciale per mantenere la fiducia del pubblico. Se i lettori non sono a conoscenza che i contenuti sono stati generati o curati da un'IA, questo potrebbe sollevare questioni di inganno e manipolazione. Infine, c'è il problema della dipendenza tecnologica. L'affidamento eccessivo su strumenti di IA può rendere le redazioni vulnerabili a malfunzionamenti tecnologici e attacchi informatici. È essenziale mantenere un equilibrio tra l'adozione di nuove tecnologie e le competenze tradizionali del giornalismo". 3. In che modo un giornalista può già utilizzare l’intelligenza artificiale nel proprio lavoro, senza violare l’etica professionale? A.R: "Nello stesso modo in cui lo fa ogni giorno da sempre: rispettando i valori della professione, garantendo un’informazione veritiera, verificata e trasparente e ricordando che la libertà di espressione ed il diritto ad una corretta informazione sono valori indicati nella nostra Carta costituzionale, fondamento della democrazia. Nel caso specifico dovrà essere in grado, ed in questo senso ho prima evidenziato la necessità di acquisire le giuste competenze, di analizzare e verificare i contenuti prodotti dalle IA, utilizzandoli in maniera trasparente e non ingannevole, evidenziando quanto più possibile, quali contenuti sono sintetici e quali sono frutto del lavoro umano. Ovviamente, affinché tutto ciò non sia pura teoria, dovrà essere discusso nei comitati di redazione e posto all’attenzione dell’editore. Il problema è che, oggi, affermare che un testo è stato scritto con l’uso dell’IA viene considerato un disvalore e quindi potrebbe esservi la tendenza a nascondere la provenienza. In questo credo che vi debba essere un cambiamento culturale che porti ad una diversa visione di questi contenuti, cambiamento che può solo essere fondato su quella competenza del giornalista cui accennavo, affinché diventi il garante ed artefice della qualità e veridicità dei contenuti sintetici. In molte redazioni si stanno implementando “policy” ad hoc, per la gestione dei contenuti artifiiciali. Come ho scritto nella nostra newsletter su giornalismo e IA, già sei mesi fa, Newsweek aveva stabilito nuove regole per introdurre gli strumenti di IA garantendone un utilizzo etico e responsabile, pubblicando alcune linee guida nelle policy del giornale. Secondo le linee guida, la valutazione e l’adozione graduale di strumenti basati sull’IA si concentreranno su come migliorare le diverse fasi del lavoro giornalistico, come la scrittura, la ricerca, il montaggio video e la correzione di bozze. I giornalisti parteciperanno attivamente in ogni fase del processo di utilizzo dell’IA, garantendo un controllo umano e il rispetto degli standard editoriali. Newsweek, infatti, riconosce che l’IA può semplificare compiti giornalistici ripetitivi o dispendiosi, consentendo al personale di concentrarsi su compiti più creativi e di valore aggiunto: nelle policy però è ben sottolineato che l’IA non sostituirà mai il ruolo dei giornalisti nel garantire la qualità e l’accuratezza delle notizie pubblicate. Una questione molto importante riguarda la responsabilità, il dibattito sulla responsabilità dell’IA, infatti, è ancora in corso, ma in questo caso la redazione ha ben specificato che editori e giornalisti rimangono responsabili del contenuto prodotto, indipendentemente dall’uso di strumenti AI: “L’IA non è responsabile nei confronti dei lettori di Newsweek: lo siamo noi.” 4. Nel mondo ci sono già esempi di utilizzo dell’IA nelle redazioni: quali possono essere i vantaggi e le opportunità di questi strumenti per il giornalismo? A.R: "Vantaggi ed opportunità numerosi ma diversi a seconda della tipologia e della dimensione della redazione. Per esempio, al The New York Times, hanno iniziato a trasformare in audio gli articoli del giornale, con l’obiettivo di arrivare almeno ad un 75% di tutti gli articoli in poco tempo e tutti i podcast in testo scritto. E non solo: qualche settimana fa, A.G. Sulzberger, editore del The New York Times dichiarò in un’intervista per il sito del Reuters Institute di Oxford: “Riesci a immaginare un mondo in cui ogni articolo che produciamo è tradotto in tutte le lingue della Terra? Possiamo ed è emozionante.” Questo aspetto può essere interessante per una grande azienda, forse meno per una piccola realtà locale che non ha tutti questi podcast o la necessità di tradurre in più lingue i propri articoli. Per una redazione locale può essere utile la possibilità, ad esempio, di utilizzare l’IA per analizzare i faldoni dei processi nel tribunale della propria città o le denunce di reato e trovare informazioni utili per le proprie inchieste, creare articoli più mirati al contesto locale analizzando anche informazioni provenienti dai social. Attività che, come si vede, hanno bisogno comunque di un’organizzazione umana in grado di selezionare e comprendere i risultati delle elaborazioni artificiali. Ma tornando alle opportunità, alcuni giorni fa ben due premi Pulitzer per il giornalismo su quindici, sono stati assegnati a contenuti prodotti con l’ausilio dell’IA: uno di questi proprio al Times il cui team di indagini visive ha addestrato un modello per identificare i crateri lasciati da bombe da 2.000 libbre in zone di Gaza dichiarate sicure per i civili. (N.d.r Una delle risposte fornite da Antonio Rossano è stata elaborata da un programma di intelligenza artificiale: saresti in grado di capire di quale si tratta? La risposta verrà fornita durante il corso) I webinar del corso “Giornalismo e intelligenza artificiale” si terranno il 28 giugno e il 26 luglio. Ciascuna lezione durerà 3 ore e rilascerà 3 crediti formativi. Le iscrizioni alla premia lezione apriranno il 10 giugno.