Immagine realizzata con IA Dall-E

OpenAI ha recentemente implementato miglioramenti significativi al suo chatbot, ChatGPT, allo scopo di rendere l’applicazione più potente e versatile. L’aggiornamento delle applicazioni mobili di ChatGPT per i sistemi operativi iOS e Android introduce la capacità di interagire attraverso comandi vocali. Questa nuova versione, inoltre, presenta funzionalità di visione avanzate, grazie alle quali l’AI è in grado di elaborare immagini e fornire descrizioni dettagliate insieme a informazioni di contesto, in una modalità simile a quanto offerto da Google Lens. Inoltre, ChatGPT saprà effettuare ricerche online e quindi lavorare su contenuti di attualità.

Tali aggiornamenti rappresentano un notevole passo in avanti nell’evoluzione di ChatGPT, il quale sta progressivamente diventando un’applicazione di consumo in grado di competere con assistenti virtuali di fama come Siri di Apple e Alexa di Amazon.

Questa strategia di continuo aggiornamento e miglioramento mira a rendere l’applicazione ChatGPT più attraente per un pubblico più ampio e a mantenere la competizione con altre aziende operanti nell’ambito dell’intelligenza artificiale, permettendo anche di raccogliere un volume maggiore di dati audio e visivi che consento di alimentare il costante perfezionamento dei modelli di apprendimento automatico.

I modelli alla base di ChatGPT, inclusi i più recenti come GPT-4, infatti, sono stati formati mediante una vasta raccolta di testi provenienti da diverse fonti online. Tuttavia, per ottenere un’intelligenza artificiale più avanzata, numerosi esperti ritengono che sia necessario integrare dati audio e visivi, replicando in tal modo l’approccio multisensoriale dell’intelligenza umana ed animale.

OpenAI sta anche esplorando opzioni di licenza per la sua tecnologia di generazione vocale, con aziende come Spotify che manifestano interesse nell’utilizzarla per tradurre i podcast in altre lingue. La nuova versione dell’app ChatGPT presenta un’interfaccia utente che include icone raffiguranti cuffie e strumenti di visione, consentendo agli utenti di sfruttare appieno le funzionalità vocali e visive per interagire con la chatbot.

Per quanto riguarda la nuova funzionalità di lettura dell’immagine con il nuovo aggiornamento è possibile effettuare:

  • Traduzione di immagini: GPT-4 traduce visivamente le informazioni, abbattendo le barriere linguistiche.
  • Analisi delle immagini mediche: È utile per analizzare radiografie e scansioni mediche, identificando anomalie.
  • Identificazione o descrizione di oggetti: Aiuta a riconoscere e descrivere oggetti sconosciuti.
  • Sviluppo front-end Web: Offre feedback dettagliati per migliorare l’esperienza dell’utente.
  • Spiegazione di contenuti visivi: Spiega in dettaglio infografiche, schemi e altro.
  • Consigli su design d’interni: Suggerisce design per spazi interni, ottimizzando estetica e funzionalità.
  • Visualizzazione degli effetti di sostanze psichedeliche: Fornisce descrizioni degli effetti visivi e sensoriali di sostanze.
  • Decifrazione di scrittura illeggibile: Traduce testi antichi o illeggibili.

Tuttavia, i primi test delle funzionalità di ricerca visiva di ChatGPT hanno evidenziato alcune limitazioni, con il chatbot che non è stato in grado di identificare alcune immagini richieste dagli utenti. La funzione vocale è stata oggetto di alcune critiche in quanto talvolta risulta lenta, anche se OpenAI la descrive come una funzione conversazionale, simile ai noti assistenti virtuali Google Assistant o Alexa.

Nel mentre OpenAI continua a sviluppare il suo chatbot, emergono anche questioni relative alla privacy e alla gestione dei dati vocali e delle immagini degli utenti. OpenAI ha già accumulato una vasta quantità di dati testuali e immagini dal web per l’addestramento dei propri modelli, ma l’acquisizione di dati vocali e di immagini pone interrogativi cruciali sulla privacy e sulla gestione dei dati. In merito all’addestramento dei modelli con dati vocali e di immagini degli utenti, OpenAI deve ancora delineare una politica chiara e trasparente. L’azienda afferma che gli utenti possono scegliere di non condividere i propri dati a fini di addestramento, ma la gestione di tali impostazioni potrebbe non essere semplice. È essenziale che OpenAI affronti queste questioni in modo rispettoso della privacy degli utenti e in modo trasparente.