intelligenza artificiale

Claude 3 (Anthropic) sfida ChatGpt

Di |2024-03-08T14:17:01+01:008 Marzo , 2024|Articoli, Giornalismo e IA, Tecnologia e applicazioni|

Anthropic, società che sviluppa intelligenza artificiale fondata da ex dipendenti di OpenAI, lo scorso 4 marzo ha rilasciato Claude 3, una famiglia di modelli linguistici di grandi dimensioni (LLM), che, stando alle dichiarazioni di Anthropic, avrebbero raggiunto capacità “quasi umane”. La famiglia di modelli comprende tre varianti avanzate in ordine crescente di capacità: Claude 3 Haiku, Claude 3 Sonnet e Claude 3 Opus. Ogni modello successivo offre prestazioni sempre più potenti, permettendo agli utenti di trovare un equilibrio ottimale tra intelligenza, velocità e costo per le loro specifiche applicazioni. I primi rapporti indicano che Claude 3 dimostra "prestazioni avanzate in vari compiti cognitivi" e la capacità di elaborare ragionamenti.

Continua la querelle tra Il The New York Times e OpenAI – Microsoft

Di |2024-03-08T14:36:03+01:008 Marzo , 2024|Articoli, Giornalismo e IA|

È un botta e risposta oramai tra il The New York Times OpenAI e Microsoft, dal 27 dicembre 2023, quando il Times ha avviato azioni legali contro le due aziende, accusandoli di violazione di copyright. Secondo l'accusa, l'utilizzo dei chatbot sta erodendo la posizione dei tradizionali media come fonti affidabili di notizie. la scorsa settimana OpenAI ha presentato una mozione presso il tribunale federale di Manhattan, Anche Microsoft ha replicato presentando lunedì una mozione, al tribunale distrettuale degli Stati Uniti presso il distretto meridionale di New York, chiedendo al giudice di rigettare alcune parti della causa intentata dal giornale. Microsoft ha affermato che i modelli linguistici di grandi dimensioni, non hanno avuto un impatto negativo sul mercato delle notizie o sui materiali utilizzati per il loro addestramento.

725 siti pubblicano fake news artificiali

Di |2024-03-08T14:36:28+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

NewsGuard è una società che si occupa di analisi dei media, sicurezza e intelligenza artificiale e si impegna nella battaglia contro la disinformazione e nella promozione della trasparenza e dell'accuratezza nel panorama delle notizie online. Fondata nel 2018 da Steven Brill e Gordon Crovitz, NewsGuard ha sviluppato un sistema di valutazione che assegna punteggi di affidabilità ai siti web. Il processo di valutazione di NewsGuard coinvolge un team di giornalisti professionisti che esaminano e valutano manualmente migliaia di siti web secondo nove criteri fondamentali, tra cui l'accuratezza delle informazioni, la trasparenza delle fonti, l'etica editoriale e il riconoscimento dei contenuti pubblicitari.

La persuasione occulta con l’IA: una ricerca statunitense

Di |2024-03-08T14:36:37+01:001 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Il Rapporto sui Rischi Globali del World Economic Forum ha messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia. Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall'uso di strumenti di intelligenza artificiale. L'esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l'obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.

Gemini è razzista? Google blocca la produzione delle immagini

Di |2024-03-08T14:47:40+01:001 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Attraverso un post sul social X, Google ha annunciato il temporaneo blocco del suo nuovo modello di intelligenza artificiale, Gemini, nella produzione di immagini di persone, dichiarando: 'Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo una versione migliorata'." La decisione è stata presa in seguito alla diffusione su social media di esempi di immagini generate dallo strumento, le quali raffiguravano figure storiche, come i papi e i padri fondatori degli Stati Uniti, in una varietà di etnie e generi. Ad esempio, una richiesta di immagini di vichinghi ha prodotto solo persone di colore vestite con abiti tradizionali dei guerrieri norreni.

Continua la battaglia legale tra OpenAI e Il The New York Times

Di |2024-03-08T14:36:56+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

Lo scorso dicembre, il The New York Times ha avviato azioni legali contro OpenAI e il suo principale finanziatore, Microsoft, accusandoli di sfruttare milioni dei suoi articoli senza autorizzazione per addestrare chatbot destinati a fornire informazioni agli utenti. In una dichiarazione presentata lunedì presso il tribunale federale di Manhattan, OpenAI ha chiesto ad un giudice federale di archiviare alcune parti della causa sul copyright del giornale contro di essa, sostenendo che il NYT ha hackerato il suo chatbot ChatGPT e altri sistemi di intelligenza artificiale per generare delle prove valide da utilizzare per il caso. “Le accuse contenute nella denuncia del Times non soddisfano i suoi famosi e rigorosi standard giornalistici. La verità, che verrà fuori nel corso di questo caso, è che il Times ha pagato qualcuno per hackerare i prodotti OpenAI"

SØØn – Newsletter n°8 del 23 febbraio 2024

Di |2024-03-08T14:48:51+01:0023 Febbraio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - La visione sull’IA del The New York Times - Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale - IA e disinformazione: 20 big tech firmano un accordo a Monaco - Reddit vende i dati degli utenti all’IA - Anche OpenAI ha il suo text to video: nasce Sora

La visione sull’IA del The New York Times

Di |2024-03-08T14:37:24+01:0023 Febbraio , 2024|Articoli, Giornalismo e IA|

«Riesci a immaginare un mondo in cui ogni articolo che produciamo è tradotto in tutte le lingue della Terra? Possiamo ed è emozionante. Riesci a immaginare un mondo in cui ogni articolo che scriviamo viene automaticamente trasformato in audio e ogni podcast che creiamo viene automaticamente trasformato in testo? Possiamo ed è emozionante. Renderà il nostro giornalismo più accessibile a più persone che mai.» Sono queste alcuni dei concetti espressi da A.G. Sulzberger, editore del The New York Times, in un’intervista esclusiva rilasciata al Reuters Institute for the Study of Journalism curata dal giornalista Eduardo Suarez. Concetti e parole che prefigurano una nuova strada per l’integrazione dell’intelligenza artificiale nelle redazioni, superando le paure emozionali e i determinismi tecnologici.

Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale

Di |2024-03-08T14:37:31+01:0023 Febbraio , 2024|Articoli, Etica e Normativa|

Lo scorso luglio la comica Sarah Silverman e alti autori: Christopher Golden, Richard Kadrey, Paul Tremblay e Mona Awad avevano accusato OpenAI di aver utilizzato illecitamente i loro lavori per addestrare ChatGPT, violando il loro diritto di copyright. Le prove offerte dagli autori miravano a dimostrare che, quando richiesto, ChatGPT remixava le opere protette da copyright di migliaia di autori di libri senza consenso, compenso o credito. Il 19 febbraio 2024, la giudice federale californiana Araceli Martínez-Olguín ha respinto le accuse degli autori ritenendo che non sia stata riscontrata una somiglianza diretta tra gli output di ChatGPT e le opere originali. Martínez-Olguín ha sottolineato che i querelanti “non hanno dimostrato che gli output di ChatGPT contengano copie dirette dei libri protetti da copyright” .

IA e disinformazione: 20 big tech firmano un accordo a Monaco

Di |2024-03-08T14:18:56+01:0023 Febbraio , 2024|Articoli, Ecosistema digitale, Intelligenza Artificiale|

Durante la Conferenza sulla sicurezza di Monaco , tenutasi il 16 febbraio 2024, riunione di leader politici ed esperti di sicurezza globali, è stato firmato un accordo che coinvolge 20 aziende tecnologiche di spicco tra queste figurano le principali piattaforme social e le società di intelligenza artificiale, tra cui Google, Meta, Microsoft, OpenAI e TikTok. L'accordo si focalizza sull'affrontare i crescenti rischi legati ai contenuti ingannevoli generati dall'intelligenza artificiale, soprattutto in contesti elettorali. I firmatari si sono impegnati a sviluppare e implementare tecnologie atte a mitigare tali rischi, individuare e contrastare la diffusione di tali contenuti sulle loro piattaforme e adottare misure appropriate.

Torna in cima