Un+teatrino+assurdo%3A+OpenAI+e+il+New+York+Times+si+accusano+a+vicenda+di+hacking+e+molto+altro
player
/tech/553830-guerra-open-ai-new-york-times-intelligenza-artificiale-diritto-autore.html/amp/
Tech

Un teatrino assurdo: OpenAI e il New York Times si accusano a vicenda di hacking e molto altro

Continua la lotta senza frontiere tra OpenAI e il New York times per la violazione del copyright, stavolta con OpenAI che contrattacca accusando il NYT di… aver hackerato ChatGpt.

Il 2023 è stato un anno senza dubbio impegnativo per OpenAI, che mentre si faceva strada nel mondo delle aziende più chiacchierate e amate/odiate del pianeta Terra aveva anche la necessità di sopravvivere ad attacchi legali di vario genere. 

Tra questi quello che forse è più “noto” è quello compiuto dalla testata giornalistica americana New York Times, che ha denunciato tanto OpenAI quanto Microsoft con l’accusa di aver impiegato gli articoli giornalistici presenti sulla piattaforma senza autorizzazione durante il processo di addestramento dei modelli di intelligenza artificiale utilizzati poi per far funzionare ChatGPT:

Ricordiamo brevemente una cosa: ChatGPT funziona sulla base di un large language model che è in grado di interpretare i testi. Questo sistema di interpretazione è stato creato da OpenAI per la sua piattaforma attraverso lo scraping, ovvero la raccolta di dati e la lettura da parte di un gigantesco sistema informatico alimentato da potentissime schede video Nvidia, di una quantità infinita di siti internet, gli stessi siti internet che sono proni a denunciarti se utilizzi il loro materiale per scopi che non sono previsti dai termini e le condizioni d’uso.

ContrattaccoGPT

All’interno di un nuovo documento reso recentemente pubblico da OpenAI, la compagnia di Sam Altman dichiara che il NYT per portare avanti questa causa ha fatto sostanzialmente cherrypicking , andando a selezionare dei risultati anomali creati appositamente attraverso migliaia di tentativi diversi.

Per fare ciò il NYT non ha fatto altro che sfruttare uno specifico bug di ChatGPT (poi corretto da OpenAI) utilizzando poi istruzioni ingannevoli, compiendo una violazione netta dei termini di utilizzo propri di OpenAI.

OpenAI, quindi, accusa il NYT di aver creato tutta una serie di prompt realizzati appositamente per restituire dei risultati interpretabili come chiare dimostrazioni della violazione del dritto di autore, così da portare l’azienda americana in tribunale.

OpenAI, nello specifico, poi appesantisce ulteriormente l’accusa dichiarato che secondo le loro fonti il NYT avrebbe pagato qualcuno per “hackerare” chatGPT, anche se in questo caso è inutile rimarcarlo, il termine hackerare sembra un poco fuori luogo.

Una lotta per la sopravvivenza tra il vecchio e il nuovo

Questa vicenda è soltanto l’ennesima che riguarda la dura lotta che sta venendo portata avanti dalle compagnie che utilizzano l’intelligenza artificiale nei confronti di chi vuole esercitare il proprio diritto di autore. 

OpenAI, tra le altre cose, nel documento sopracitato a un certo punto arringa l’essere quasi sicura di poter vincere in tribunale perché, a sua detta, è impossibile che i giudici possano dare al NYT e in generale alle altre controparti in cause similari il diritto di monopolizzare “i fatti o le regole della lingua”. Un’affermazione molto critica, che lascerebbe lo spazio per libri interi scritti sull’argomento e che per il momento evitiamo di analizzare con particolare profondità.

L’unica cosa che possiamo dire da questo punto di vista è che questo è semplicemente l’ennesimo tassello scricchiolante del rapporto tra il mondo dell’intelligenza artificiale generativa e il mondo dell’editoria, se non proprio del diritto di autore. 

Noi vi consigliamo spassionatamente di dare un’occhiata alla montagna di contenuti di valore proposti da EGAIR sull’argomento, perché permettono di avere un certo livello di chiarezza. Quello che deve risultare chiaro fin da subito è che, in questo caso, le compagnie che offrono servizi e sistemi legati all’intelligenza artificiale effettuano lo scraping di dati a scopo di lucro senza ridistribuire in alcuna maniera la ricchezza da loro generata, il tutto andando a creare problemi macro economici derivanti dalla loro scala che non è raggiungibile da aziende senza ingenti fondi sotto (il numero di GPU necessarie a far girare il sistema di apprendimento di un GPT-like è elevato a tal punto da non essere riproducibile senza milioni di euro sotto).

This post was published on 29 Febbraio 2024 16:30

Graziano Salini

Perennemente alla ricerca di legami tra argomenti distanti tra loro, con una certa predilezione per musica e videogiochi. Faccio il possibile per fare in modo che ci siano meno errori di concetto possibili sugli articoli di Player.it, grande fan degli errori grammaticali invece, quelli fanno sempre ridere. Quando non sto amministrando questo sito lavoro mi occupo di spiegare cose difficili in maniere semplici su altri siti, su tematiche molto meno allegre dei videogiochi.

Pubblicato da

Recent Posts

Si, Sony vuole veramente comprarsi Elden Ring (ma è ancora tutto da vedere)

Elden Ring potrebbe ben presto diventare un titolo di Sony: l'azienda molto vicina all'acquisto del…

Android 16, iniziano ad emergere i primi dettagli certi: cosa dobbiamo aspettarci

Android 16 è pronto a cambiare e anche nettamente tutti i nostri dispositivi appena sarà…

Come leggere on line una raccomandata di Poste senza andare in ufficio

C'è la possibilità di leggere e di ritirare le raccomandate online. La possibilità viene offerta…

Finalmente, solo per PS5 Pro, c’è un nuovo videogioco che gira in 8K

PlayStation 5 Pro è disponibile da meno di un mese, ma già sta dando i…

Pericolo per chi ha un Mac, i cybercriminali li prendono di mira: come riescono a infettarli

Avere un device a prova di cybercriminali è pressoché impossibile e neanche il tuo Mac…

Cerchi un monitor panoramico? MSI ha scontato uno dei suoi monitor più potenti!

Un'occasione imperdibile per il Black Friday di Amazon: uno dei migliori monitor progettati da MSI…