Articoli

Continua la battaglia legale tra OpenAI e Il The New York Times

Di |2024-03-08T14:36:56+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

Lo scorso dicembre, il The New York Times ha avviato azioni legali contro OpenAI e il suo principale finanziatore, Microsoft, accusandoli di sfruttare milioni dei suoi articoli senza autorizzazione per addestrare chatbot destinati a fornire informazioni agli utenti. In una dichiarazione presentata lunedì presso il tribunale federale di Manhattan, OpenAI ha chiesto ad un giudice federale di archiviare alcune parti della causa sul copyright del giornale contro di essa, sostenendo che il NYT ha hackerato il suo chatbot ChatGPT e altri sistemi di intelligenza artificiale per generare delle prove valide da utilizzare per il caso. “Le accuse contenute nella denuncia del Times non soddisfano i suoi famosi e rigorosi standard giornalistici. La verità, che verrà fuori nel corso di questo caso, è che il Times ha pagato qualcuno per hackerare i prodotti OpenAI"

La visione sull’IA del The New York Times

Di |2024-03-08T14:37:24+01:0023 Febbraio , 2024|Articoli, Giornalismo e IA|

«Riesci a immaginare un mondo in cui ogni articolo che produciamo è tradotto in tutte le lingue della Terra? Possiamo ed è emozionante. Riesci a immaginare un mondo in cui ogni articolo che scriviamo viene automaticamente trasformato in audio e ogni podcast che creiamo viene automaticamente trasformato in testo? Possiamo ed è emozionante. Renderà il nostro giornalismo più accessibile a più persone che mai.» Sono queste alcuni dei concetti espressi da A.G. Sulzberger, editore del The New York Times, in un’intervista esclusiva rilasciata al Reuters Institute for the Study of Journalism curata dal giornalista Eduardo Suarez. Concetti e parole che prefigurano una nuova strada per l’integrazione dell’intelligenza artificiale nelle redazioni, superando le paure emozionali e i determinismi tecnologici.

Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale

Di |2024-03-08T14:37:31+01:0023 Febbraio , 2024|Articoli, Etica e Normativa|

Lo scorso luglio la comica Sarah Silverman e alti autori: Christopher Golden, Richard Kadrey, Paul Tremblay e Mona Awad avevano accusato OpenAI di aver utilizzato illecitamente i loro lavori per addestrare ChatGPT, violando il loro diritto di copyright. Le prove offerte dagli autori miravano a dimostrare che, quando richiesto, ChatGPT remixava le opere protette da copyright di migliaia di autori di libri senza consenso, compenso o credito. Il 19 febbraio 2024, la giudice federale californiana Araceli Martínez-Olguín ha respinto le accuse degli autori ritenendo che non sia stata riscontrata una somiglianza diretta tra gli output di ChatGPT e le opere originali. Martínez-Olguín ha sottolineato che i querelanti “non hanno dimostrato che gli output di ChatGPT contengano copie dirette dei libri protetti da copyright” .

IA e disinformazione: 20 big tech firmano un accordo a Monaco

Di |2024-03-08T14:18:56+01:0023 Febbraio , 2024|Articoli, Ecosistema digitale, Intelligenza Artificiale|

Durante la Conferenza sulla sicurezza di Monaco , tenutasi il 16 febbraio 2024, riunione di leader politici ed esperti di sicurezza globali, è stato firmato un accordo che coinvolge 20 aziende tecnologiche di spicco tra queste figurano le principali piattaforme social e le società di intelligenza artificiale, tra cui Google, Meta, Microsoft, OpenAI e TikTok. L'accordo si focalizza sull'affrontare i crescenti rischi legati ai contenuti ingannevoli generati dall'intelligenza artificiale, soprattutto in contesti elettorali. I firmatari si sono impegnati a sviluppare e implementare tecnologie atte a mitigare tali rischi, individuare e contrastare la diffusione di tali contenuti sulle loro piattaforme e adottare misure appropriate.

Reddit vende i dati degli utenti all’IA

Di |2024-03-01T13:41:51+01:0023 Febbraio , 2024|Articoli, Etica e Normativa|

Reddit, il social media statunitense, ha recentemente stretto un accordo con un'azienda di intelligenza artificiale, della quale non si sa il nome, per fornirle i dati dei suoi utenti. Secondo quanto riportato da Bloomberg, il contratto ha un valore di circa 60 milioni di dollari all'anno e fa parte della strategia di Reddit per aumentare le proprie entrate in vista della sua imminente quotazione in borsa. L'accordo prevede che Reddit conceda all'azienda l'accesso ai post e ai commenti degli utenti, che verranno utilizzati per addestrare modelli di intelligenza artificiale. Il contratto (e le controversie ad esso associate) si basa sulla concessione dell'utilizzo delle API (interfaccia di programmazione delle applicazioni) di Reddit, per consentire l'accesso ai dati del sito web.

Anche OpenAI ha il suo text to video: nasce Sora

Di |2024-03-01T13:42:47+01:0023 Febbraio , 2024|Articoli, Tecnologia e applicazioni|

OpenAI ha recentemente annunciato il lancio del suo strumento di generazione video da testo denominato Sora. Questo strumento è progettato per convertire istruzioni testuali in video con una durata massima di 60 secondi, consentendo la creazione di scene complesse caratterizzate da più personaggi, movimenti specifici e sfondi dettagliati. Sora si basa su una versione del modello di diffusione utilizzato da Dalle-3 di OpenAI e da GPT-4, il che gli consente di comprendere non solo le istruzioni testuali fornite, ma anche di sviluppare una comprensione della grammatica cinematografica per produrre video più realistici. Con Sora OpenAI entra in competizione diretta con altre aziende, tuttavia, OpenAI afferma che Sora si distingue per il suo sorprendente fotorealismo e la capacità di produrre video più lunghi, fino a un minuto, rispetto alla concorrenza.

L’IA nelle redazioni: lo studio del Tow Center for Digital Journalism

Di |2024-03-08T14:49:48+01:0014 Febbraio , 2024|Articoli, Giornalismo, Giornalismo e IA|

È uscito nei giorni scorsi su Columbia Journalism Review uno studio del The Tow Center for Digital Journalism at Columbia's Graduate School of Journalism, a firma Felix M.Simon, dal titolo “Artificial Intelligence in the News: How AI Retools, Rationalizes, and Reshapes Journalism and the Public Arena “ che tenta di fare il punto della situazione in relazione agli strumenti di IA nel giornalismo, suoi effetti e conseguenza, Di seguito una sintesi dei punti che abbiamo ritenuto più rilevanti per i nostri lettori, di un documento che varrebbe la pena essere integralmente letto. Le pressioni del mercato giocano un ruolo cruciale, con le testate giornalistiche ancora in fase di adattamento dopo il declino dei modelli di business tradizionali. Molti editori vedono nell'IA una potenziale salvezza da questa minaccia esistenziale, con la speranza di migliorare profitti e trovare nuovi modelli di business.

Bard cresce e diventa Gemini

Di |2024-02-16T12:22:50+01:0014 Febbraio , 2024|Articoli, Tecnologia e applicazioni|

Da quando Google ha lanciato Bard, la sua piattaforma di intelligenza artificiale generativa, l'anno scorso, persone in tutto il mondo hanno adottato questo strumento. Bard è diventato uno strumento quotidiano per molti, facilitando varie attività. L'obiettivo principale di Bard è sempre stato fornire un accesso diretto ai modelli di intelligenza artificiale di Google. Con l'introduzione di Gemini, la nuova generazione di modelli più avanzati, questo obiettivo è ancora più tangibile. Pertanto, Google ha deciso di rinominare Bard semplicemente Gemini, cambio che riflette una trasformazione più ampia. Con Gemini, Google mira a offrire una gamma più ampia di funzionalità e servizi. Oltre all'interazione con il modello Pro 1.0 in più di 40 lingue.

Midjourney in campo contro i deepfake

Di |2024-07-05T11:48:08+02:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'avvento dell'intelligenza artificiale sta catalizzando un profondo cambiamento nella nostra relazione con le informazioni, portando con sé, come abbiamo più volte riscontrato, una crescente minaccia per la democrazia: la diffusione della disinformazione. In particolare, la proliferazione dei cosiddetti "deepfake", ovvero video e immagini manipolati in maniera estremamente realistica, sta suscitando serie preoccupazioni riguardo alla possibilità di manipolare il processo democratico, specialmente in relazione alle elezioni politiche. In quest'ottica, Midjourney, uno dei brand più affermati e consolidati nella generazione di immagini tramite intelligenza artificiale, sta valutando la possibilità di vietare l'utilizzo del suo software per la creazione di immagini politiche raffiguranti figure di spicco come Joe Biden e Donald Trump.

Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA

Di |2024-02-16T11:21:49+01:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.

Torna in cima