24 Febbraio 2024 – Google ha deciso di sospendere la funzione di generazione di immagini di persone attraverso il suo modello di intelligenza artificiale Gemini. La decisione, presa il 14 Febbraio, arriva dopo numerose polemiche relative a errori e imprecisioni storiche nelle rappresentazioni generate dall’IA.
Le inesattezze storiche
Le criticità si sono concentrate principalmente sulla rappresentazione di figure storiche. In diversi casi, Gemini ha generato immagini di personaggi storici non corrispondenti alla realtà: soldati nazisti neri e cinesi, padri fondatori americani indiani, e l’incapacità di creare immagini di uomini bianchi. Questi errori, oltre ad essere storicamente inaccurati, hanno sollevato dubbi sulla capacità di Gemini di generare immagini inclusive e non discriminatorie.
Le possibili cause
Le cause di queste imprecisioni non sono ancora del tutto chiare. Tuttavia, alcuni esperti ipotizzano che l’algoritmo di Gemini potrebbe essere stato influenzato da dataset di addestramento non sufficientemente diversificati o da un’eccessiva enfasi sull’inclusività, che ha portato a forzature nella generazione di immagini.
La risposta di Google
Google ha preso atto delle criticità e ha deciso di bloccare la funzione di generazione di immagini di persone per “migliorare la qualità e l’accuratezza” del modello. L’azienda ha inoltre annunciato un piano di revisione e aggiornamento dell’algoritmo, con l’obiettivo di renderlo più preciso e inclusivo.
Le implicazioni per il futuro dell’IA
La vicenda di Gemini ha sollevato importanti questioni sul futuro dell’intelligenza artificiale e sulla sua capacità di generare contenuti realistici e non discriminatori. La sospensione della funzione di generazione di immagini rappresenta un passo indietro per Google, ma anche un’occasione per riflettere sulle implicazioni etiche e sociali di questa tecnologia.
Considerazioni finali
La sospensione di Gemini è un evento significativo che evidenzia le sfide ancora aperte nello sviluppo di modelli di intelligenza artificiale affidabili e responsabili. È importante che Google e altri sviluppatori di IA investano nella ricerca e nello sviluppo di algoritmi più accurati e inclusivi, garantendo al contempo la trasparenza e l’eticità dei loro processi.