L’intelligenza artificiale in tribunale: la denuncia del New York Times

image_pdfimage_print

Il New York Times fa causa a OpenAI e a Microsoft. La prima società, produttrice di ChatGPT e nata come un progetto non-profit e ad accesso libero, si è oggi trasformata in un’azienda valutata dagli investitori più di 80 miliardi di dollari; la seconda, che nel 2023 ha investito quasi 13 miliardi di dollari in OpenAI e ha inserito la tecnologia del modello GPT nel suo motore di ricerca Bing, rientra, insieme a Google, Amazon, Apple e Meta (che comprende Facebook, Instagram e Whatsapp) tra le grandi piattaforme digitali. Queste ultime, secondo i dati dell’Osservatorio sulle piattaforme online dell’Autorità per le garanzie nelle comunicazioni (AGCOM), hanno conseguito, nel 2018, ultima annualità disponibile, 692 miliardi di euro di ricavi, un importo nettamente superiore al Prodotto Interno Lordo della maggior parte degli Stati del mondo.

Secondo la testata giornalistica, nel ricorso presentato davanti al Tribunale Distrettuale Federale di Manhattan, queste due società sarebbero responsabili di aver utilizzato massivamente e abusivamente le pubblicazioni giornalistiche del Times (in misura nettamente superiore a quelle di altre fonti) per alimentare e “istruire” i propri sistemi di intelligenza artificiale, tanto da consentire a questi ultimi sia di riprodurre in modo letterale articoli di tale giornale, riservati agli abbonati, sia di riprodurne lo stesso stile espressivo, fino ad arrivare ad attribuire alla testata giornalistica la diffusione di informazioni in realtà scorrette o false. Quanto a quest’ultimo aspetto si tratta delle c.d. allucinazioni, ossia quel fenomeno in grado di generare dati ed esperienze che appaiono realistiche, ma che non corrispondono ad alcun input della vita reale. In altre parole, il sistema, anziché rispondere “non so” a domande per le quali non conosce la risposta corretta, fornisce comunque informazioni, non accurate oppure addirittura false, attribuendole a fonti specifiche (in questo caso, al New York Times) senza che tuttavia l’utente possa averne alcuna consapevolezza. Tutto ciò, secondo il giornale, consente ai lettori di poter accedere ai propri contenuti non solo senza dover pagare alcunché all’editore, ma anche senza dover neppure accedere al sito stesso, generando così traffico per le visualizzazioni pubblicitarie.

Si tratta di un giudizio che ha suscitato enorme scalpore; sicuramente per i soggetti coinvolti – il New York Times è una delle più grandi testate giornalistiche statunitensi, nonché la prima a citare in giudizio le “aziende dell’intelligenza artificiale generativa” (chiamata così perché sa generare contenuti dopo aver appreso da enormi insiemi di dati, che siano testi, immagini, audio o video) per questioni di diritti d’autore – e per le valutazioni che impone sulla legittimità dell’uso di ingenti basi di dati contenti opere per l’ingegno al fine dell’addestramento di sistemi di intelligenza artificiale; ma soprattutto perché chiama in causa una riflessione più ampia e urgente su come tali meccanismi incidano sulla tutela del diritto all’informazione e sulla conseguente esigenza di preservare un’industria giornalistica indipendente e attendibile.

Si legge nel ricorso, infatti, che se il New York Times «e altre organizzazioni non possono produrre e proteggere il loro giornalismo indipendente ci sarà un vuoto che nessun computer e nessuna intelligenza artificiale potrà riempire. Con meno giornalismo prodotto, il costo per la società sarà enorme». La professione del giornalista – e non solo – si trova quindi a dover trovare un nuovo equilibrio tra il suo ruolo all’interno della società e un’innovazione tecnologica sempre più veloce e dirompente, gestita da (poche) grandi società private che esercitano non soltanto un enorme potere economico, ma, nei fatti, influiscono su ogni decisione e condotta umana, non perché venga chiesto loro espressamente di sostituirla, ma perché forniscono la base informativa su cui tali decisioni e condotte verranno prese e tenute. Il diritto all’informazione, perché ne sia garantita l’effettività, deve connotarsi in ragione «a) del pluralismo delle fonti cui attingere conoscenze e notizie, che comporta, fra l’altro, il vincolo al legislatore di impedire la formazione di posizioni dominanti e di favorire l’accesso […] al massimo numero possibile di voci diverse; b) dell’obiettività e dell’imparzialità dei dati forniti; c) della completezza, della correttezza e della continuità dell’attività di informazione erogata; d) in ultimo, del rispetto della dignità umana e degli altri valori primari garantiti dalla Costituzione» (Corte costituzionale, n. 112 del 1993). Ciò, infatti, è funzionale ad assicurare una libera opinione pubblica in grado di svilupparsi attraverso la pari concorrenza di tutti alla formazione della volontà generale. Questo, non può essere garantito da tali nuovi e inediti centri di potere tecnologico che hanno trasformato quella che sarebbe dovuta essere un’arena pubblica nello spazio gestito da chi, attraverso procedure opache dietro cui si nasconde la decisione di chi detiene questo potere, è in grado di estrarre valore dai dati che ha a disposizione, non solo al fine di acquisire vantaggi direttamente o indirettamente nel proprio mercato di riferimento o in mercati affini, ma anche per influenzare – o mettere questi stessi dati a disposizione di chi intende influenzare – dinamiche private, relazionali e pubbliche.

Il trasferimento dei quotidiani sul web, il proliferare in rete di siti di informazione non professionale, il ruolo crescente dei motori di ricerca – oggi implementati dall’intelligenza artificiale come nel caso che qui interessa – quale sede di diffusione di informazioni, notizie e opinioni, modificano infatti le caratteristiche sia del diritto all’informazione sia del “pubblico” che si trova ad avere a disposizione una massa smisurata di notizie, talvolta create secondo un moto apparentemente circolare e qualificate come veritiere e/o rilevanti non più dal carattere accreditato della fonte di trasmissione.

In gioco, a ben vedere, c’è quindi molto di più della tutela del diritto di autore, comunque essenziale al fine di preservare un controllo professionale sui contenuti: c’è la necessità di acquisire (e far acquisire) consapevolezza del fatto che chi gestisce queste nuove tecnologie è in grado di determinare effetti sul modo di percepire e interpretare la realtà, producendo cambiamenti sulla struttura del discorso pubblico e avendo un impatto senza precedenti sullo spazio sociale, e quindi politico.

Gli autori

Francesca Paruzzo

Francesca Paruzzo è dottoressa di ricerca in Diritti e Istituzioni presso l'Università degli Studi di Torino e avvocato.

Guarda gli altri post di:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.