Uno po' di quello che vuoi sapere su IA e informazione!
SØØn
SØØn
Newsletter 29 del 6 settembre 2024
Un po' di quello che vuoi sapere su IA e informazione!

SØØn vuol essere un riepilogo settimanale di alcune delle numerose novità che evolvono continuamente il mondo dell'intelligenza artificiale e del giornalismo. Non è possibile darne un resoconto completo o esaustivo, ci vorrebbero decine di pagine. 

L’Espresso: botta e risposta tra CDR e Direzione
copetina perplexity

Visto il periodo post vacanziero potrebbe essere passata in secondo piano, nell’attenzione pubblica, la recente querelle all’Espresso, che riepiloghiamo per l’importanza che questa testata ha rivestito nel panorama giornalistico del nostro paese e per l’affetto che molti di noi giornalisti provano per essa conservandone, nostalgicamente, i ricordi e le immagini di tempi gloriosi oramai perduti.

Lo scorso 2 settembre il Comitato di Redazione de L’Espresso aveva pubblicato un comunicato, proclamando lo sciopero per il 3 settembre, impedendo in tal modo la pubblicazione del numero di questa settimana.

Il comunicato recitava: “L’assemblea dei giornalisti de L’Espresso esprime sconcerto per le scelte dell’editore e del direttore e forte preoccupazione per le ultime comunicazioni ricevute. I mancati rinnovi dei contratti a termine, l’assenza di un piano editoriale, il massiccio utilizzo di collaboratori esterni, la confusione per lo sviluppo sul web e il giudizio sprezzante sulla redazione definita “sovradimensionata” e “sproporzionata” ci inducono a riprendere le protesta. […] “

Nello stesso documento si ricordava  che i giornalisti avevano già “sospeso il pacchetto di cinque giorni di sciopero affidato al Cdr dopo la traumatica sostituzione del direttore Enrico Bellavia dando fiducia e credito alle rassicurazioni dell’editore e del direttore sul perimetro occupazionale e sulla salvaguardia dell’identità dell’Espresso” rilevando peraltro che “[…] Venuti meno questi presupposti, l’assemblea – già in stato di agitazione – proclama un giorno di sciopero per la giornata di domani martedì 3 settembre, con l’obiettivo di impedire l’uscita del numero in edicola venerdì 6 settembre. E si riserva di proclamarne altri attingendo al pacchetto di 5 giorni già approvato.”

Il giorno successivo, il CdA, unitamente al Direttore Carelli, pubblicava, sul sito del giornale, un ulteriore comunicato nel quale si respingevano le accuse formulate dai giornalisti e dal CdR, definite infondate. Nel comunicato ufficiale, l’azienda ha sottolineato l’impegno economico e gestionale dell’editore per sostenere la testata e il processo di risanamento aziendale in corso, ricordando che i contratti a termine non prevedono obbligo di rinnovo e ha espresso preoccupazione per i toni del comunicato dei giornalisti, ritenuti inappropriati e strumentali...

leggi l'articolo completo

Dal MIT uno studio su rischi dell’IA
logo rcs mediagroup e openai

Il documento “The AI Risk Repository“, pubblicato dal Massachusetts Institute of Technology tra le più importanti università di ricerca del mondo con sede a Cambridgesi, presenta  un’analisi completa e dettagliata dei rischi connessi all’intelligenza artificiale.

Questo lavoro si rivolge a un vasto pubblico di esperti, ricercatori, legislatori, aziende del settore tecnologico e persino al pubblico in generale, con l’obiettivo di fornire un quadro di riferimento chiaro, accessibile e condiviso per comprendere e affrontare i pericoli derivanti dall’uso e dall’implementazione dell’IA.

La mancanza di una comprensione comune e unificata dei rischi legati all’IA può infatti ostacolare lo sviluppo di politiche efficaci, la ricerca accademica e la capacità di rispondere in modo tempestivo a potenziali crisi.

Negli ultimi anni, lo sviluppo dell’IA ha registrato un’accelerazione esponenziale, tanto che oggi è praticamente impossibile ignorare il suo impatto su molteplici settori della società. Tuttavia, con questo rapido sviluppo, emergono anche una serie di rischi potenziali, dai problemi di privacy fino a preoccupazioni più gravi come la disinformazione su larga scala o l’uso improprio di IA per scopi bellici o criminali. Questi rischi non sono solo teorici: l’AI Incident Database, un archivio che monitora i casi in cui sistemi di IA hanno causato o quasi causato danni nel mondo reale, conta già oltre 3.000 incidenti documentati. È chiaro, quindi, che la gestione di tali rischi non può essere lasciata al caso, e occorre uno sforzo coordinato per capirli e affrontarli efficacemente.

L’obiettivo principale di questo progetto è stato quello di raccogliere e organizzare le molteplici tassonomie di rischio già esistenti, per creare un unico database che fornisse una visione d’insieme comprensibile e accessibile. I ricercatori hanno scoperto che, mentre esistono numerosi tentativi di classificare e descrivere i rischi dell’IA, questi approcci sono spesso non coordinati tra loro, portando a una mancanza di coerenza nella comprensione globale del fenomeno. Ciò ha reso difficile l’identificazione dei modelli comuni e delle lacune, ostacolando lo sviluppo di strategie efficaci di prevenzione e mitigazione dei rischi.

Per risolvere questo problema, i ricercatori hanno raccolto e sintetizzato le diverse prospettive sul rischio legato all’IA, creando quello che hanno chiamato AI Risk Repository. Questo archivio include non solo una revisione della letteratura esistente, ma anche una serie di strumenti, come una tassonomia delle cause, una tassonomia dei domini e un database in continuo aggiornamento, accessibile al pubblico. Il Repository si configura come uno strumento in grado di offrire una chiara comprensione dei rischi associati all’IA, permettendo di consultarli, modificarli e aggiornarli facilmente.

La raccolta dei rischi ha coinvolto un processo complesso di ricerca sistematica, in totale, sono stati individuati e analizzati 777 diversi rischi, estratti da 43 documenti. Questa imponente raccolta di informazioni è stata poi codificata e classificata in due principali tassonomie.

leggi l'articolo completo

Cinesi e Indiani usano l’IA per diffondere disinformazione politica

L’azienda newyorkese Graphika ha pubblicato un report, “The #Americans”, rivelando l’esistenza, negli USA, di una campagna di disinformazione legata allo Stato cinese, conosciuta come “Spamouflage”.

Questo network di account falsi ed hackerati ha utilizzato tattiche sempre più aggressive nel tentativo di influenzare il dibattito pubblico online negli Stati Uniti, in vista delle prossime presidenziali di novembre.

Premesso che l’esistenza di questa campagna di disinformazione legata ai cinesi è stata monitorata a partire già dal 2019, l’intelligence di Graphika afferma di aver identificato 15 account Spamouflage su X e un account su TikTok che affermano di essere cittadini statunitensi e/o sostenitori della pace, dei diritti umani e dell’integrità delle informazioni focalizzati sugli Stati Uniti, frustrati dalla politica americana e dall’Occidente. È stato inoltre identificato un ulteriore soggetto “Spamouflage” che opera su più piattaforme, come una falsa agenzia di stampa, sempre focalizzata sugli Stati Uniti...(continua nell'articolo, link in calce)
Nel frattempo, NewsGuard, società che fornisce servizi come il monitoraggio della disinformazione per inserzionisti, motori di ricerca, piattaforme di social media, aziende di sicurezza informatica e agenzie governative, ha recentemente scoperto una vasta rete di quasi 1.500 account falsi su Facebook e X, impegnati in una campagna coordinata a sostegno del governo indiano guidato da Narendra Modi e volta a screditare il Pakistan. Questa rete opererebbe indisturbata da settembre 2021, unendo oltre 1.400 account che sfruttano l’intelligenza artificiale per creare contenuti propagandistici...

leggi l'articolo completo

La California vuole controllare l’IA

Il 28 agosto scorso, il Senato della California ha approvato il disegno di legge SB 1047, proposto dal senatore Scott Wiener, per regolamentare i modelli avanzati di Intelligenza Artificiale.

Il provvedimento, che attende la firma del governatore Gavin Newsom entro il 30 settembre, potrebbe segnare un punto di svolta nella gestione dei rischi legati allo sviluppo dell’Intelligenza artificiale, soprattutto in California, considerata un hub tecnologico globale.

Il disegno di legge “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (SB 1047)  mette in atto, per la prima volta in California, regole di etica e sicurezza per proteggere la società dall’IA utilizzata per condurre attacchi informatici, sviluppare armi chimiche, nucleari o biologiche da parte del crimine organizzato, attacchi che potrebbero causare danni stimati oltre i 500 milioni di dollari.

Nello specifico, SB 1047 introduce una serie di requisiti stringenti e regolamentazioni per gli sviluppatori di modelli di IA avanzati, che dovranno seguire rigorose misure di sicurezza e protocolli per prevenire accessi non autorizzati e modifiche pericolose ai loro modelli. Inoltre, dovranno conservare una copia non censurata del protocollo di sicurezza per tutta la durata di utilizzo del modello, più un ulteriore periodo di cinque anni, rendendola disponibile in qualsiasi momento al Procuratore Generale della California...

leggi l'articolo completo

Cresce la necessità di strumenti per la rilevazione dei fake dopo il caso Trump/Taylor Swift

Lo scorso 18 agosto Donald Trump  ha condiviso sul suo account Truth Social una serie di immagini realizzate con l’IA, che mostrano i fan di Taylor Swift, inclusa la stessa cantante, esprimere sostegno alla sua campagna. In una di queste foto, alcuni Swifties sono ritratti sorridenti con magliette recanti la scritta “Swifties for Trump”.

È stato poi accertato che le immagini erano prodotte dalla John Milton Freedom Foundation (ne riportavano la filigrana), organizzazione non profit con sede in Texas che si presenta come un gruppo per la libertà di stampa con l’obiettivo di “rafforzare i giornalisti indipendenti” e “rafforzare le fondamenta della democrazia”, come riporta il The Guardian.

L’uso dell’intelligenza artificiale per influenzare l’opinione pubblica in ambito politico sta diventando sempre più preoccupante: è sempre più difficile, infatti, distinguere tra realtà e manipolazione.

Già prima dell’inizio ufficiale delle campagne presidenziali americane di quest’anno, gli esperti avevano avvertito che l’IA è in grado di creare immagini e video manipolati con tale precisione da confondere anche gli osservatori più attenti, mettendo a rischio il processo elettorale.

Un fenomeno simile lo avevamo evidenziato a proposito delle  elezioni dello scorso aprile in India, dove l’intelligenza artificiale era  stata utilizzata in modo massiccio per personalizzare i messaggi politici. L’IA era stata impiegata per creare avatar digitali del Primo Ministro Modi che si rivolgeva agli elettori chiamandoli per nome, con video e messaggi telefonici generati automaticamente in diverse lingue locali...

leggi l'articolo completo

Corso CANVA per giornalisti accreditato OdG: 3 cfp

Per maggiori informazioni vai alla pagina del corso 

 Quì la videopresentazione del corso 

Midjourney, l'intelligenza artificiale che crea immagini: corso per giornalisti accreditato OdG: 3 cfp

Per maggiori informazioni vai alla pagina del corso 

in collaborazione con:

Sempre gratuita e disponibile
Lavoriamo tanto per realizzare la nostra newsletter SØØn e ne siamo orgogliosi.
Sarà sempre gratuita e disponibile in archivio sul nostro sito.
Aiutaci, condividila con i tuoi contatti.
Registrati alla Newsletter
facebook  linkedin  instagram