Uno po' di quello che vuoi sapere su IA e informazione!
Interskills srl
SØØn
Newsletter 5 del 2 febbraio 2024
Uno po' di quello che vuoi sapere su IA e informazione!

SØØn vuol essere un riepilogo settimanale di alcune delle numerose novità che evolvono continuamente il mondo dell'Intelligenza Artificiale. Non è possibile darne un resoconto completo o esaustivo, ci vorrebbero decine di pagine. Scegliamo quelle che possono riguardare, direttamente o indirettamente, il mondo dell'informazione e del giornalismo

«Prologo»

Anche le testate locali in difficoltà a causa dell'IA

Abbiamo spesso affrontato l'impatto dell'intelligenza artificiale nell’ecosistema dell’informazione, con particolare riferimento alle testate mainstream.

Tale impatto è altrettanto complesso per le testate locali, come ricorda un articolo di Poynter.

Come sappiamo i modelli linguistici avanzati richiedono una vasta quantità di dati per funzionare in modo ottimale, raccolta che diventa problematica nel contesto delle notizie locali, dove le informazioni sono spesso limitate. La scarsità di dati lascia inoltre emergere dubbi sulla possibile efficacia dei modelli, poiché potrebbero risultare limitati nella comprensione delle sfumature e delle peculiarità delle comunità locali. Un po’ la difficoltà che abbiamo “noi” umani nel comprendere le sfumature dei contesti di linguaggi stranieri.

Questo potrebbe tradursi in servizi di IA di qualità inferiore nelle comunità con poche notizie, aumentando il rischio di disinformazione. 

Un ulteriore problematica è legata sempre all’addestramento incompleto dell'IA che potrebbe causare la diffusione di informazioni false, minando la fiducia del pubblico, elemento cruciale per le testate locali per essere considerate fonti autorevoli. La manipolazione delle informazioni su basi dati limitate, infatti potrebbe avere conseguenze significative sulla percezione della realtà da parte delle comunità.

Sul versante economico, l'automazione dell'erogazione di notizie potrebbe causare una diminuzione del traffico verso i siti di informazione locale, mettendo a rischio l'esistenza stessa di questi media. In passato, le aziende tecnologiche sostenevano che l'indicizzazione dei titoli delle notizie da parte dei loro spider avrebbe portato traffico grazie ai link.

Ma l'IA non presenta questa caratteristica: il pericolo è proprio nel fatto che questi sistemi “rispondono” nella stragrande maggioranza dei casi senza fornire il link alle fonti di informazione o anche, fornendo risposte esaustive che se anche il link fosse presente, non sarebbe utile consultarlo.

Il fenomeno del Click-through, infatti, portava tante visite anche sui piccoli siti di notizie. Questa transizione potrebbe causare reali perdite economiche per l'intero settore, come evidenziato dal Wall Street Journal che stima una possibile perdita del 20% al 40% del traffico generato da Google.

 

L'UE per mettersi al passo di Cina e USA: forse un po' tardi ma i soldi ci sono

Nel mentre l'Unione europea si è trovata ad affrontare normativamente una rapida evoluzione nel campo dell'intelligenza artificiale generativa, come evidenziato dall'introduzione di un capitolo dedicato nell'AI Act, focalizzato su modelli avanzati come il GPT-4 e LaMDA, altro ed altrettanto complesso capitolo è la rincorsa alla necessità di competere globalmente su queste tecnologie.

I fronti sono in sostanza due: quello dell’hardware (semiconduttori) di supporto e quello dello sviluppo di modelli IA europei.

Lo scorso giugno la Commissione europea ha approvato un pacchetto di aiuti da 8,1 miliardi di euro di aiuti di Stato per la produzione di semiconduttori "Made in Europe".

56 aziende di diverse dimensioni attingeranno al piatto per realizzare 68 progetti in 14 Stati membri: Austria, Repubblica Ceca, Finlandia, Francia, Germania, Grecia, Irlanda, Italia, Malta, Paesi Bassi, Polonia, Romania, Slovacchia e Spagna. La Commissione spera che il denaro pubblico porti 13,7 miliardi di euro di investimenti privati, mobilitando così un totale di quasi 22 miliardi di euro da qui al 2032, data in cui tutti i progetti dovrebbero raggiungere la fase finale. I primi prodotti potrebbero essere disponibili sul mercato già nel 2025.

L'obiettivo è fornire potenza di calcolo alle startup e alle PMI, colmando il divario con gli Stati Uniti. Tuttavia, la conversione dei supercomputer per adattarli alle esigenze dell'IA generativa è una sfida notevole, aggravata dalla carenza di componenti hardware, in particolare le schede grafiche.

Sull’altro fronte, quello dei sistemi di IA,  la politica di investimenti intrapresa dalla Commissione, con un piano di finanziamenti per l’innovazione nel campo dell’intelligenza artificiale, presentato lo scorso 24 gennaio, può rappresentare un volano per il settore.

Il piano complessivo prevede la creazione di "fabbriche dell'IA", ecosistemi che aggregano esperti del settore, nuovi talenti e dati intorno ai supercomputer, al fine di facilitare lo sviluppo delle startup. Tuttavia, il successo del piano dipende dai fondamentali necessari, attualmente mancanti.

Il pacchetto di supporto, noto come "pacchetto di innovazione AI", si propone di estendere il sostegno all'ecosistema dell'IA europea, fornendo alle PMI e alle start-up accesso privilegiato ai supercomputer europei. Tali modifiche richiederanno flessibilità nella legislazione dell'UE per consentire aggiornamenti più rapidi e adeguati all'addestramento dei modelli di IA generativa.

 

Finalmente anche gli americani si occupano degli americani

Avevamo scritto che la Commissione Europea stava esaminando se l’investimento di Microsoft in OpenAI possa essere soggetto a revisione secondo le normative dell’Unione Europea sulle fusioni.

L’indagine dell'antitrust europeo è complessa a causa della natura insolita della partnership tra Microsoft e OpenAI. Nonostante l’impegno finanziario e la designazione come “fornitore cloud esclusivo”, Microsoft non possiede azioni tradizionali in OpenAI e, tuttavia, ha diritto a una quota limitata dei profitti.

Questi rapporti (e non solo questi) sono adesso all'attenzione della Federal Trade Commission statunitense che ha avviato un'indagine approfondita sulle operazioni di investimento e le partnership nel campo dell'intelligenza artificiale generativa. L'attenzione è concentrata su colossi tecnologici come Alphabet, Amazon, Microsoft, Anthropic e OpenAI. Giovedì scorso, l'organo regolatore ha emesso richieste dettagliate alle cinque aziende, chiedendo informazioni approfondite sulla portata e sugli effetti dei loro investimenti.

L'indagine si propone di esaminare i privilegi conferiti dagli investimenti delle grandi aziende nelle startup di intelligenza artificiale emergenti, valutando se tali accordi possano compromettere la concorrenza.

Le società coinvolte beneficiano della possibilità di integrare le tecnologie di intelligenza artificiale generativa sviluppate dalle startup nei loro servizi esistenti. Al contempo, le startup, grazie alle partnership con fornitori di servizi cloud, ottengono un accesso più conveniente alle risorse di rete e calcolo necessarie per addestrare e perfezionare i propri modelli.

La FTC, tra le varie richieste avanzate, vuole informazioni dettagliate sugli specifici accordi di investimento tra le società e su come le partnership influenzino il rilascio di prodotti, la concorrenza di mercato e il monitoraggio tecnologico. Le società hanno 45 giorni di tempo per rispondere alle richieste della FTC.

Tra le collaborazioni, quella tra Microsoft e OpenAI è la più nota, ma anche Google e Amazon hanno recentemente stipulato accordi multimiliardari con Anthropic, una startup di intelligenza artificiale di San Francisco fondata da ex leader di OpenAI.

 

Google "inventa" il cinema: arriva  Lumière

Google ha introdotto Lumiere, il suo innovativo modello di intelligenza artificiale per la generazione di video, questo modello si caratterizza per l'utilizzo del rivoluzionario framework di diffusione denominato Space-Time-U-Net (STUNet), che consente a Lumiere di comprendere sia gli aspetti spaziali che temporali. Diversamente dagli approcci tradizionali, questa tecnologia avanzata consente di creare video in un unico processo, eliminando la necessità di assemblare fotogrammi fissi più piccoli.

Il processo di Lumiere inizia con la creazione dia struttura di base che può provenire da un prompt o da un’immagine. Sfruttando il potenziale di STUNet, il modello approssima la traiettoria degli oggetti all'interno del fotogramma, generando una sequenza organica di fotogrammi che si fondono senza soluzione di continuità, creando un effetto di movimento fluido. 

Oltre alla generazione di testo in video, Lumiere offre funzionalità come la generazione di immagini in video, varie tipologie di stili, cinemagraph che animano solo una parte del video e l'inpainting per mascherare aree del video per modificarne colore o motivo. Queste caratteristiche ampliano notevolmente le possibilità creative degli utenti, consentendo loro di sperimentare nuovi stili ed effetti visivi.

Di fronte alle enormi potenzialità di questo strumento la stessa Google, in un documento riconosce il potenziale rischio di abusi nella creazione di contenuti falsi o dannosi. Gli autori sottolineano l'importanza dello sviluppo e dell'applicazione di strumenti per rilevare e prevenire utilizzi impropri, al fine di garantire un ambiente di utilizzo sicuro ed equo. 

Nonostante ciò, non viene fornita una spiegazione dettagliata su come questo obiettivo sarà raggiunto.

 

E in Italia...

A fine marzo scorso, il Garante Privacy italiano aveva identificato seri rischi per la privacy degli utenti di Open AI, portando alla temporanea limitazione del trattamento dei dati degli utenti italiani e al blocco di ChatGpt nel paese. 
In risposta, Open AI aveva temporaneamente oscurato la piattaforma. Il blocco era durato un mese, con il ripristino di ChatGpt alla fine di aprile, dopo che OpenAI aveva apportato alcune delle modifiche richieste dal Garante su alcuni degli aspetti critici.
Da quel momento, il Garante ha richiesto a OpenAI di conformarsi a una serie di regole per adeguarsi al contesto legislativo europeo, contestualmente, ha però avviato un'istruttoria per verificare se la società di Sam Altman avesse compiuto altri illeciti rispetto a quanto stabilito dal GDPR.
Il 29 gennaio, il Garante ha comunicato i risultati dell'istruttoria in corso, notificando ufficialmente a OpenAI le contestazioni per la violazione della normativa sulla protezione dei dati personali. 
Ora, la società americana ha 30 giorni per rispondere e presentare le proprie difese.
Il Garante ha anche comunicato che nella definizione del procedimento terrà conto dei lavori in corso nell’ambito della speciale task force, istituita lo scorso anno dal Board che riunisce le Autorità di protezione dati dell’Ue (Edpb). Il procedimento potrebbe portare a sanzioni significative per Open AI, con una possibile penalità tra il 2% e il 4% del fatturato della società, traducibile in decine di milioni di dollari. 

***

Un'indagine recente condotta per conto di Readly, l’azienda che produce app di abbonamento a riviste e quotidiani digitali, ha fornito un interessante approfondimento sulle opinioni degli italiani riguardo all'utilizzo dell'intelligenza artificiale (IA). Nonostante l'entusiasmo per l'adozione dell'IA in settori quali medicina e domotica, sorgono preoccupazioni per la sua implementazione in ambiti come giornalismo, scuola e finanza.

I risultati indicano che quasi la metà degli italiani nutre aspettative positive sull'utilizzo dell'IA nel campo medico, con solo il 16% che esprime preoccupazioni per possibili conseguenze negative. Tra gli entusiasti figurano i giovani tra i 18 e i 29 anni (49%) e gli individui oltre i 60 anni (47%), mentre gli uomini mostrano una maggiore propensione a fidarsi dell'IA rispetto alle donne (35% contro 25%).

Se il 34% degli italiani guarda con favore all'impiego dell'IA nella tecnologia smart-home, con un picco del 41% tra i giovani, emergono preoccupazioni riguardo all'utilizzo dell'IA nel giornalismo, dove la generazione automatica di notizie rappresenta una preoccupazione centrale. L'IA potrebbe mancare della sfumatura e della comprensione dei giornalisti umani, portando a incomprensioni e resoconti inaccurati. Alcuni media hanno risolto questo problema introducendo una supervisione umana per rivedere e correggere i contenuti generati dall'IA.

 

 

 

Ma questa era solo una sintesi "commentata". In dettaglio  le nostre notizie parlano di:

gemelle

in collaborazione con:

Sempre gratuita e disponibile
Lavoriamo tanto per realizzare la nostra newsletter SØØn e ne siamo orgogliosi.
Sarà sempre gratuita e disponibile in archivio sul nostro sito.
Aiutaci, condividila con i tuoi contatti.
Registrati alla Newsletter
facebook  linkedin  instagram