Il giornalista nell’era dell’IA Generativa: intervista all’avv. Deborah Bianchi

Utilizzare i modelli GenAI è come guidare l’auto: occorre imparare la pratica ma anche il Codice della Strada. E’ quello che si prefigge di insegnare il ciclo formativo “Il giornalista nell’era dell’IA generativa? Fruitore consapevole, professionista tutelato, apriscatole etico” promosso da Odg Toscana e Fondazione Odg Toscana.

Si tratta di un percorso formativo di 4 moduli, fruibili anche singolarmente, che cercheranno di fare luce su tutte le principali tematiche relative all’IA generativa e all’impiego operativo/giuridico/deontologico nel mondo del giornalismo.

Ideatori del percorso sono Silvia Volpi, Vicepresidente Fondazione OdG Toscana, Raffaele Capparelli, Consigliere Fondazione OdG Toscana, e Deborah Bianchi, avvocato esperto di diritto online, alla quale abbiamo rivolto alcune domande che anticipano parte delle tematiche affrontate.

  • Avv. Bianchi perché un percorso formativo sui GenAI inquadrato sotto il profilo deontologico?

Nell’era dell’IA generativa, il ruolo del giornalista subisce l’ennesima rivoluzione tecnologica digitale. Siamo a un bivio: lavorare per Chat GPT o lavorare con Chat GPT. Imboccare la seconda via non solo ci consente di conservare il lavoro ma ci consente anche di rivendicare la dignità professionale. Solo un professionista, grazie al proprio bagaglio deontologico, sa come dare la notizia usando correttamente gli strumenti tecnologici.

Posso decidere di utilizzare Chat GPT ma sono io a raccogliere i materiali tenendo ben presente l’obbligo deontologico di dare notizie vere e accurate. Sono sempre io a sorvegliare gli outputs e ad applicarvi il controllo editoriale creativo, idoneo a contestualizzare la notizia nel rispetto delle persone interessate ed evitando di utilizzare materiali tossici ipoteticamente carichi di insidie nell’indurci inconsapevolmente a violare il copyright di terzi. Ecco perché la questione è soprattutto deontologica. Chi parteciperà ai moduli non acquisirà la conoscenza di tutti i modelli GenAI ma si porterà a casa il corretto “modus operandi.

  • Il dibattito intorno all’IA è sempre più acceso ed è chiaro ormai quanto il tema della regolamentazione sia in primo piano. L’Europa ha approvato a marzo 2024 AI Act, di cosa si tratta esattamente e quali saranno le conseguenze operative?

In questo momento il settore dei modelli AI e GenAI non è ancora sottoposto all’AI Act ma dal 10 agosto 2024 è affidato all’AI Pact che – non essendo legge – viene applicato unicamente dalle big tech aderenti tra cui Amazon, Google, Booking.com, Microsoft, OpenAI, Samsung. Grandi assenti: Apple, Meta Platforms, Tik Tok, xAI. Siamo dunque in un periodo di transizione ove tutto è rimesso alla buona volontà delle aziende. Tuttavia l’Ufficio UE per l’IA, promotore dell’AI Pact, incalza per spingere tutti gli stakeholders ad adottare in modo proattivo i principi dell’AI Act impostato su tutele crescenti proporzionalmente all’aumentare dei livelli di rischio, classificati in inaccettabile, sistemico, alto, limitato, minimo. L’algoritmo dedicato specificamente alla scrematura dei doppioni dell’archivio comporterà un rischio minimo e cautele di buon senso mentre i GenAI fruibili per i deepfake comporteranno un rischio alto e tutele forti. Addirittura, in via del tutto volontaria, diverse big tech si sono coalizzate per espungere i deepfake dei candidati nei periodi preelettorali (Tech Accord to Combat Deceptive Use of AI in 2024 Elections).

Intanto, gli aderenti all’AI Pact si sono impegnati ad introdurre nelle rispettive strutture modelli di governance sull’AI improntati alla trasparenza e alla conformità; all’individuazione e mappatura dei sistemi intelligenti ad alto rischio; alla diffusione della media literacy nel proprio personale per favorire un uso consapevole, responsabile ed etico. Il patto si applica solo ai modelli AI ad alto rischio. Restano esclusi i modelli GenAI che verranno sottoposti ai Codici di Buone Pratiche dell’AI Act (art. 50, par.7) attualmente in corso d’opera e disponibili a partire dal maggio 2025. Tali codici sono di cruciale importanza perché traducono la disciplina dell’AI Act nella pratica quotidiana.

  • A proposito di pratica quotidiana, l’IA è già parte del lavoro dei giornalisti e dei comunicatori, utilizzata per elaborare dati, creare contenuti e/o immagini: in che modo si possono utilizzare i prodotti GenAI senza incorrere in violazione di privacy o copyright?

La risposta potrebbe apparire fin troppo semplice se non presentasse lo svantaggio di un utilizzo ristretto delle potenzialità dei GenAI. Siamo ormai consapevoli dell’opacità di ragionamento e della vastità scomposta di contenuti vagliati da questi modelli che restituiscono outputs “apparentemente verosimili” e caparbiamente assertivi di contenuti a volte rivelatisi allucinazioni (causa The New York Times/OpenAI). Pertanto, la risposta è sì: si evita il rischio di incorrere in violazioni copyright o privacy esercitando la sorveglianza umana. Sorveglianza sui dataset e sorveglianza sugli outputs. Il modello dovrà applicarsi esclusivamente a materiali raccolti di persona.

Ad esempio, utilizzo il GenAI unicamente per trascrivere le registrazioni di varie assemblee comunali per pubblicarne un articolo che provvederò a scrivere personalmente. Perché solo per la trascrizione? Potrei usarlo anche per la redazione dell’articolo. Certo, però rischi di perdere più tempo perché oltre a verificare la bontà della trascrizione devi anche verificare l’esattezza dell’articolo. Il controllo editoriale costituisce l’attività di sorveglianza umana indispensabile attualmente in via di prassi e poi obbligatoria con l’applicazione dell’AI Act. Il controllo editoriale costituisce anche l’apporto creativo topico del diritto di autore che consente al giornalista di apporre serenamente la propria firma sebbene si sia avvalso di uno strumento AI. Il controllo editoriale integra, inoltre, l’imprescindibile obbligo deontologico di fornire informazioni vere, accurate e corrette.

Di fronte alla facile obiezione che questo utilizzo castra le potenzialità dell’intelligenza artificiale generativa e ci fa perdere tempo, rispondiamo con gli esiti dell’esperimento dell’Associated Press sull’utilizzo dei GenAI: “In ogni caso, il contenuto inizia con il lavoro di un giornalista AP e un giornalista AP modificherà e controllerà il contenuto prima della pubblicazione”. In definitiva, i GenAI sono strumenti a supporto e non in sostituzione del giornalista.

  • Per quanto riguarda invece i contenuti ai quali l’IA attinge, siano essi testi o immagini, come è possibile per le testate o i singoli giornalisti tutelare i propri diritti?

Tecnicamente potresti impedire ai ragnetti scrapers del Chat-GPT di turno di vagliare i tuoi contenuti però questo determinerebbe la perdita di traffico, la perdita di indicizzazione e di pubblicità. Si tratterebbe di una decisione suicida scartata perfino da The New York Times che ha preferito trascinare OpenAI in tribunale piuttosto che sottrarre i propri contenuti alle dinamiche del web. The New York Times ha attivato la citazione non solo per la violazione del copyright ma soprattutto per rivendicare il diritto alla sopravvivenza del mondo del giornalismo e del relativo indotto.

Scusa se mi dilungo un attimo però la tua domanda coglie il cuore del problema ben evidenziato dal giudizio citato. La causa NYTimes/OpenAI non è solo una causa a tutela del copyright ma “la” causa a tutela del pluralismo, della democrazia, della libertà di stampa e degli equilibri di mercato nell’internet dedicato all’informazione. I GenAI applicati all’infosfera digitale operano una progressiva e costante disintermediazione separando il mondo del giornalismo dal “lettore”. Quindi se tutti i lettori del Times che vogliono una recensione di un film non vanno più sul sito del Times ma lo chiedono a chat GPT (che restituisce il frammento epurato dalla pubblicità), la società The New York Times Company che ha creato l’ecosistema intorno al giornale perde tutto il business calamitato da quella recensione ovvero i contatti al sito web del cinema, al gestore della vendita dei biglietti, alle agenzie pubblicitarie che organizzano la promozione del cinema con campagne di coupon gratuiti o scontati. Questo processo prosciuga le risorse economiche necessarie per mantenere la testata.

Tornando a noi, un mezzo di tutela pratico per i giornalisti e gli editori potrebbe essere costituito dall’esercizio del diritto di opt-out sancito dalla Direttiva Copyright (articolo 4, paragrafo 3, della direttiva (UE) 2019/790). In sostanza si tratta di pubblicare un pop-up o un banner in cui si vieta espressamente di utilizzare i propri contenuti per l’addestramento dei GenAI. Ultimamente lo hanno applicato Mediaset e RAI ma non so francamente con quali risultati.

Dall’agosto 2025 tuttavia si applicherà l’art. 53 dell’AI Act che prevede precisi obblighi per i fornitori di GenAI a tutela del diritto di autore e della proprietà intellettuale come appunto l’obbligo di rispettare il diritto di opt-out o riserva di diritti espressa, adottando apposite tecnologie di rilevamento di tale divieto (art. 53, par.1 lett.c) oppure come anche l’obbligo di redigere e mettere a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l’addestramento del modello di IA per finalità generali, secondo un modello fornito dall’ufficio per l’IA (art. 53, par.1 lett.d)). Dunque, la possibilità di verificare i materiali di addestramento potrebbe far emergere casi di lesione del copyright.

Siamo certi che tale soluzione sia effettivamente tutelante per il giornalista o l’editore che già con risorse risicatissime dovrebbe impegnarle anche in questi controlli?

  • Riguardo a un utilizzo corretto dei GenAI, esistono differenze tra l’uso di modelli gratuiti e a pagamento?

Certo. La versione a pagamento presenta qualche garanzia di correttezza in più rispetto alla versione gratuita. In generale, le big tech ora dedicano un po’ di impegno alla correttezza dell’elaborazione dei propri outputs e hanno cercato di stringere accordi con alcuni colossi dell’editoria (Axel Springer e altri) al fine di fruire legalmente dei relativi contenuti per l’addestramento dei modelli GenAI. Adesso infatti, grazie agli accordi intercorsi, Chat GPT indica le fonti di origine dei contenuti apponendo i rispettivi links.

  • Anche le piattaforme social stanno integrando sempre più la IA e cercano di adeguarsi alle normative. Meta e Tik Tok ad esempio chiedono di dichiarare se i contenuti caricati sono generati da IA. Cosa accade al giornalista che dovesse “dimenticare” di dichiararlo? E come bisognerebbe comportarsi nel caso che un contenuto sia stato generato solo in parte con l’aiuto della IA?

Purtroppo la disinformazione e la misinformazione create con strumenti AI pullulano nella sociosfera. Meta ha previsto di rimuovere i contenuti, anche realizzati con GenAI, che vertono sui temi seguenti: disinformazione che contribuisce a mettere una persona in pericolo di subire una violenza fisica; disinformazione dannosa per la salute (vaccini, emergenze sanitarie pubbliche, cure “miracolose”); disinformazione che crei interferenze sul processo decisionale di voto nei periodi preelettorali. Pertanto se il contenuto creato con GenAI è fuorviante e riguarda uno dei temi appena ricordati, verrà rimosso.

Riguardo a contenuti autentici, sebbene il giornalista si sia “dimenticato” di dichiarare l’uso di GenAI nella realizzazione, non dovrebbe accadere nulla salvo eventuali meccanismi di blocco disposti in automatico al rilievo dell’impiego di strumenti intelligenti. Riguardo al contenuto realizzato solo in parte con l’aiuto di GenAI e caricato sul social si dovrebbe ipotizzare il medesimo scenario sopra esposto.

A prescindere dalla dimensione social, la tua ultima domanda coglie un’altra questione cruciale ovvero la titolarità del diritto di autore sui contenuti creati grazie a un utilizzo parziale dei GenAI. Il giornalista che scrive un testo avvalendosi di un modello generativo come si comporta con la specificazione dei credits? Deve apporre unicamente la propria firma oppure deve aggiungere “con l’aiuto di” Chat GPT o di Claude? Se ha eseguito il controllo editoriale, i diritti di autore sono suoi e non importa citare il GenAI. Se l’articolo è stato generato interamente da un GenAI (es. previsioni meteo) occorrerà specificarlo espressamente nel rispetto del principio di trasparenza. A mio modesto avviso, alle stesse conclusioni si dovrebbe giungere anche nell’ipotesi della realizzazione di un’immagine però attualmente è invalsa la prassi di attribuire il credito specificando il nome dell’autore accompagnato dal tipo di GenAI utilizzato. Qui poi si aprirebbe la tanto dibattuta questione dei diritti di autore sulle foto rielaborate o direttamente create con modelli generativi: pensiamo al caso del fotografo tedesco Boris Eldagsen che – con l’opera “The Electrician” – aveva vinto il premio Sony poi provocatoriamente rifiutato perché la foto non era mai esistita e l’immagine era stata interamente generata da DALL-E.2; pensiamo ancora al diverso caso del fotografo americano Jason Allen vincitore nel 2022 di un premio in Colorado per l’opera “Théâtre D’opéra Spatial” frutto di una sua foto realmente scattata sottoposta ad applicazioni successive di diversi GenAI la cui attribuzione dei diritti autorali è stata negata dall’Ufficio Copyright americano perché non recava l’impronta della creatività umana (???).

Ritorna il problema menzionato all’inizio: il GenAI è uno strumento o una macchina che sostituisce l’uomo?

Queste e molte altre tematihe verranno affrontate nei 4 corsi del ciclo di formazione “Il giornalista nell’era dell’IA Generativa? Fruitore consapevole, professionista tutelato, apriscatole etico” che si terranno tra novembre e dicembre a Firenze, Lucca e Pisa

Ogni modulo si compone di una parte teorica e di uno spazio per il dibattito e i laboratori pratici, rendendo così il percorso realmente operativo.

Il primo appuntamento è il 16 novembre a Firenze.

Info e iscrizioni nella piattaforma della formazione giornalisti.

Iscriviti alla Newsletter