Redazione

Circa Redazione

Questo autore non ha riempito alcun dettaglio.
Finora Redazione ha creato 175 post nel blog.

BOT psicologi e Deep Fakes: negli USA si prepara il “NO FAKES ACT”

Di |2024-03-08T14:56:20+01:004 Gennaio , 2024|Articoli, Giornalismo e IA, News, Newsletter|

I recenti sviluppi nell'IA generativa gettano luce su questioni complesse e articolate riguardanti il diritto d'autore, la privacy, l'etica e la legge nell'era digitale. Una di queste è sicuramente la creazione e l’utilizzo di duplicati digitali di persone, in immagini e/o video, ovvero dei meglio conosciuti Deep Fakes. Un caso in particolare dell’uso di questa tecnologia sta animando un ampio dibattito nell’opinione pubblica e, conseguentemente, anche nella politica negli USA. Yukun Zhao, vicedirettore del Centro di ricerca sulla psicologia positiva dell'Università Tsinghua a Pechino, ha realizzato con il suo team di ricercatori, un chatbot parlante, versione accurata dell’ottantunenne influente psicologo americano, Martin Seligman, già docente dello stesso Zhao.

Le Nazioni Unite si candidano per una governance globale dell’IA

Di |2024-03-08T14:56:34+01:004 Gennaio , 2024|Articoli, Giornalismo e IA, Newsletter, Opinioni e analisi|

L'Intelligenza Artificiale si sta velocemente integrando nelle nostre vite, portando con sé vantaggi rilevanti ma anche notevoli rischi. Il rapporto intitolato "Governare l'Intelligenza Artificiale per l'Umanità", presentato dall'organo consultivo sull'IA del Segretario Generale delle Nazioni Unite, mette in luce l'urgenza di affrontare le sfide etiche legate a questa tecnologia. Sebbene l'IA offra indubbi benefici, come scoperte scientifiche e ottimizzazione delle risorse, il documento evidenzia altresì una serie di rischi come i pregiudizi nei modelli ed il pericolo di una sorveglianza diffusa gestita da questi sistemi. C’è anche una questione legata al controllo dei dati e delle competenze, con pochi stati e aziende che ne traggono principalmente vantaggio.

OpenAI e la sicurezza dei sistemi dell’IA

Di |2024-03-08T14:56:47+01:0022 Dicembre , 2023|Articoli, Giornalismo, Giornalismo e IA, News, Opinioni e analisi|

La possibilità di deviazioni dei modelli di intelligenza artificiale è concreta e reale, tale rischio è sottolineato dall'impegno di OpenAI, nella formazione di nuovi gruppi di lavoro dedicati a garantire una maggiore sicurezza nei propri modelli. Per far fronte a questa sfida, l'azienda ha istituito diversi team tecnici: un “team di preparazione" che ha l'obiettivo principale di tracciare un percorso chiaro per identificare, analizzare e decidere come affrontare i rischi associati ai modelli in fase di sviluppo che opera attivamente nell'identificare e quantificare i rischi prima che un modello venga rilasciato al pubblico. Inoltre, c'è il "team di superallineamento" dedicato allo sviluppo di linee guida teoriche per modelli "superintelligenti". Questi modelli, che potrebbero essere molto avanzati, richiedono una progettazione e una gestione particolarmente attente.

Axel Springer sigla un accordo storico con OpenAI

Di |2024-03-08T14:56:59+01:0022 Dicembre , 2023|Articoli, Giornalismo, Giornalismo e IA, News, Opinioni e analisi|

Axel Springer, uno dei principali gruppi di media digitali in Europa, e OpenAI, leader nel campo dell'intelligenza artificiale, hanno annunciato una partnership volta a potenziare il giornalismo indipendente nell'era dell'intelligenza artificiale. Mathias Döpfner, CEO di Axel Springer, ha dichiarato: "Siamo entusiasti di dare vita a questa partnership globale tra Axel Springer e OpenAI, la prima del suo genere. Vogliamo esplorare le opportunità del giornalismo potenziato dall'intelligenza artificiale, al fine di elevare la qualità, la rilevanza sociale e il modello di business del giornalismo a un livello superiore." Brad Lightcap, COO di OpenAI, ha aggiunto: "Questa partnership con Axel Springer contribuirà a offrire alle persone nuovi modi per accedere a contenuti di notizie di qualità e in tempo reale.

Dal Consiglio d’Europa linee guida per l’implementazione dell’IA in ambito giornalistico

Di |2024-03-08T14:57:31+01:0022 Dicembre , 2023|Articoli, Giornalismo, Giornalismo e IA, News, Opinioni e analisi|

Durante la ventiquattresima riunione plenaria, che si è svolta dal 29 novembre al 1° dicembre 2023, il Comitato direttivo per i media e la società dell'informazione (CDMSI) del Consiglio d’Europa ha adottato le Linee guida sull'implementazione responsabile dei sistemi di intelligenza artificiale (IA) nel giornalismo. Queste linee guida, elaborate dal Comitato di esperti sull'aumento della resilienza dei media (MSI-RES), rappresentano un contributo significativo alla promozione di una sfera di comunicazione pubblica basata sullo stato di diritto e rispettosa dei diritti umani. Il documento fornisce orientamenti pratici ad una vasta gamma di destinatari, con particolare attenzione agli organi di informazione, agli Stati, ai fornitori di tecnologia e alle piattaforme digitali coinvolte nella diffusione delle notizie.

Imagen 2: il nuovo generatore di immagini di Google

Di |2024-01-04T13:19:10+01:0022 Dicembre , 2023|Articoli, Giornalismo, Giornalismo e IA, News, Opinioni e analisi|

Google ha recentemente annunciato un significativo aggiornamento alle funzionalità del suo generatore di immagini Imagen introdotto nel 2022, la nuova versione Imagen 2 è possibile trovarla su Vertex AI ( piattaforma di machine learning che consente l'addestramento e l'esecuzione del deployment di modelli ML e applicazioni IA). Imagen 2 offre un'ampia gamma di possibilità per personalizzare e distribuire la tecnologia, fornendo strumenti intuitivi, un'infrastruttura completamente gestita e funzionalità integrate di privacy e sicurezza. Sviluppato con la tecnologia Google DeepMind, Imagen 2 si distingue per un notevole miglioramento nella qualità delle immagini e una serie di funzionalità rivolte agli sviluppatori per creare immagini adatte ai loro specifici casi d'uso.

Più intelligente dell’uomo

Di |2024-03-08T14:57:43+01:0022 Dicembre , 2023|Articoli, Giornalismo, Giornalismo e IA, News, Opinioni e analisi|

Premessa: la previsione del token successivo è l'obiettivo di pretraining più comunemente utilizzato per i modelli di linguaggio causale. Prende una sequenza di testo come input e addestra il modello sottostante a prevedere il token (parola) successivo per ogni token all'interno di questa sequenza. Nella video intervista che incorporiamo sulla versione del sito di questa newsletter, Ilya Sutskever, direttore scientifico di OpenAI, afferma che le intelligenze artificiali AGI (Artificial General Intelligence, modelli di IA super-intelligenti) potranno superare l’uomo nella previsione del token successivo. Ovvero che potranno essere più intelligenti. Opinione che ha già trovato diversi punti di vista contrari o in disaccordo.

Rischi dell’Intelligenza Artificiale nella sfera politica

Di |2024-03-08T14:58:15+01:0013 Dicembre , 2023|Articoli, Giornalismo e IA, News, Newsletter|

Il pericolo rappresentato dall'intelligenza artificiale e dai deepfake si estende anche al panorama politico mondiale, con un esempio tangibile che in Bangladesh, paese dell'Asia meridionale con una popolazione di 170 milioni di abitanti attualmente coinvolto in una competizione elettorale che terminerà a gennaio tra la prima ministra in carica, Sheikh Hasina, e l'opposizione rappresentata dal partito nazionalista del Bangladesh. Gli organi di stampa e gli influencer favorevoli al governo hanno sfruttato gli strumenti di intelligenza artificiale forniti da start-up specializzate per favorire Sheikh Hasina. Sotto accusa sono due video: nel primo, una artefatta clip di notizie, un conduttore generato dall’IA critica aspramente gli Stati Uniti, il secondo video, successivamente rimosso, ritraeva un deepfake del leader dell'opposizione.

Dati, etica, ambiente al centro di uno studio scientifico sull’IA

Di |2024-03-19T16:51:54+01:0013 Dicembre , 2023|Articoli, Giornalismo e IA, Newsletter|

Un gruppo di scienziati, tra cui la prof.ssa Mariarosaria Taddeo dell’Università di Oxford ed il Prof. Luciano Floridi della Yale University, ha analizzato in modo approfondito i danni associati allo sviluppo dell'Intelligenza Artificiale (IA) proponendo un approccio più ampio per la sicurezza dei sistemi di IA. Sono stati esaminati i danni emergenti in varie fasi dello sviluppo dell'IA, inclusi l'estrazione delle risorse, le pratiche lavorative sfruttatrici e l'addestramento dei modelli ad alta intensità energetica (di cui parliamo, sempre in questa newsletter, anche in relazione ad un altro studio). Il gruppo di studiosi propone l'adozione di metodi di valutazione olistici per garantire che l'IA sia etica in senso ampio, tenendo conto di aspetti legali, sociali, economici e ambientali.

IA e ambiente: uno studio ne misura l’impatto

Di |2024-01-05T12:43:32+01:0013 Dicembre , 2023|Articoli, Giornalismo e IA, News, Newsletter, Opinioni e analisi|

L'impatto delle nuove tecnologie sul cambiamento climatico e sulla diffusione di CO2 è un tema di crescente rilevanza, anche in riferimento alle tecnologie dell'informazione e della comunicazione, in particolar modo con i nuovi strumenti di intelligenza artificiale e il machine learning. Secondo una recente stima dell'Agenzia Internazionale dell'Energia, attualmente i data center di tutto il mondo rappresentano tra l'1 e l'1,5% dell'utilizzo di elettricità a livello globale. Tuttavia, la comunità scientifica concorda sul fatto che la rapida diffusione di nuove tecnologie comporterà un significativo aumento dell'utilizzo di energia nel settore. L' impatto di queste tecnologie sulla società rende cruciale la comprensione e la mitigazione dei loro effetti ambientali.

Torna in cima