1. Introduzione
Come già detto nei nostri articoli precedenti, le IA generative, nonostante abbiano numerosi vantaggi, portano anche problemi di privacy riguardanti i dati con cui vengono addestrati. Questi dati derivano da tantissime fonti differenti e spesso i proprietari delle informazioni usate per addestrare i modelli di IA vedono queste tecnologie come una “concorrenza”. In questo articolo esploreremo meglio la vicenda accaduta tra il New York Times e Chat GPT.
2. Le ragioni della causa
Nel dicembre del 2023, il New York Times ha fatto causa a OpenAI (quindi Microsoft) per i dati usati per addestrare la chatbot Chat GPT. Infatti, molto spesso queste tecnologie “aspirano” i dati dal web in maniera indiscriminata, prendendo informazioni da varie fonti senza tenere conto degli aspetti legati alla privacy. Ed è proprio quello che sarebbe successo: Chat GPT avrebbe sfruttato indiscriminatamente milioni di articoli del Times per crescere e fornire risposte specifiche agli utenti.
Nel dicembre del 2023, il New York Times ha fatto causa a OpenAI (quindi Microsoft) per i dati usati per addestrare la chatbot Chat GPT. Infatti, molto spesso queste tecnologie “aspirano” i dati dal web in maniera indiscriminata, prendendo informazioni da varie fonti senza tenere conto degli aspetti legati alla privacy. Ed è proprio quello che sarebbe successo: Chat GPT avrebbe sfruttato indiscriminatamente milioni di articoli del Times per crescere e fornire risposte specifiche agli utenti.
Infatti, una delle ragioni principali che il Times ha portato nella causa riguarda il fatto che Chat GPT spesso restituisce risposte fornendo parti di testi scritti da autori della testata giornalistica, riportando esattamente le loro parole. Si crea così un problema di copyright e inoltre diminuisce la visibilità e l’importanza del giornale.
Il problema risiede nel fatto che i software di OpenAI sono in grado di generare testi che citano parola per parola il contenuto degli articoli del Times. Chat GPT è capace di riassumere e imitare lo stile espressivo dei giornalisti della testata e questo potrebbe, a lungo andare, “danneggiare” il rapporto dei lettori col Times, privandolo delle entrate derivanti dagli abbonamenti. Ma mentre il quotidiano ha preteso miliardi di dollari di risarcimenti, molte altre testate vanno controcorrente stabilendo accordi con OpenAI per usare i suoi strumenti di AI.
Non è la prima volta che accade una cosa del genere e sicuramente non sarà l’ultima dato che questo è il principio di base con cui funzionano tutte le IA. Secondo il New York Times, Chat GPT (e tutti i modelli simili) farebbe un uso improprio del grande database di dati – fatto da articoli, immagini, foto, disegni – che ha a disposizione. Infatti, queste informazioni vengono messe a disposizione online gratuitamente e dovrebbero essere utilizzate non a scopo di lucro (vedi concetto di Fair Use), cosa esattamente contraria a quella che sta facendo Microsoft. La testata giornalistica non impedisce apertamente l’utilizzo dei suoi dati, ma chiede in cambio una remunerazione o almeno di esserne informata.
3. Un tentativo di regolamentazione: l'AI Act
Dall’aprile 2021, l’Unione Europea sta lavorando per redigere un primo tentativo di regolamentazione per l’Intelligenza Artificiale, un documento che prende il nome di AI Act e che dovrebbe entrare in vigore tra il 2024 e il 2025. L’obiettivo è assicurare che i sistemi di IA utilizzati nell’UE garantiscano il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
Questo perchè le tecnologie emergenti hanno sempre di più la capacità di prendere decisioni, ma nel caso di una decisione sbagliata di chi è la responsabilità? Ed ecco che si rende necessario un quadro normativo che tenga conto di queste questioni etiche.
L’IA Act ha tra i suoi scopi quello di prevenire quanto è successo tra il New York Times e Open AI. Come detto da Brando Banfei, co-relatore dell’AI Act al Parlamento Europeo, questo provvedimento garantirà la prevenzione di questioni di copyright sia vietando l’utilizzo di dati protetti da diritti d’autore sia obbligando gli sviluppatori dei nuovi sistemi di IA a fornire una lista dettagliata dei dati da loro utilizzati per addestrare i modelli.
4. Conclusione
Per concludere, le presunte (ma molto probabili) violazioni di copyright sono solo uno dei numerosi problemi delle Intelligenze Artificiali. Tra le altre questioni etiche c’è quella legata alla discriminazione, al razzismo, alla scarsa rappresentazione delle minoranze e alla sicurezza dei dati affidati a queste IA. L’Intelligenza Artificiale ha molti lati positivi, ma bisogna fare attenzione ai lati oscuri che essa nasconde perchè essi possono portare a cause legali o problemi simili come nel caso che abbiamo appena descritto.