L’intelligenza artificiale continua a progredire, diventando sempre più presente nelle vite quotidiane degli utenti. Tuttavia, con questa diffusione emergono anche problematiche significative. Recenti segnalazioni da parte di utenti hanno sollevato interrogativi sulla logica che guida la moderazione dei contenuti implementata da Samsung Galaxy AI.
Un gruppo di utenti ha riportato esperienze interessanti riguardo il comportamento della Samsung Galaxy AI. In particolare, è stato notato che l’ortografia e la grammatica della frase “la mia pelle è bianca” vengono accettate senza problemi, mentre “la mia pelle è nera” viene contrassegnata come potenzialmente inappropriata. Questo suggerisce che il termine “nero” (o “black”) susciti delle riserve in Galaxy AI. Durante un esperimento in cui venivano utilizzati i termini ‘bianca’, ‘marrone’ e ‘nera’ in riferimento al colore della pelle, l’intelligenza artificiale ha segnalato esclusivamente la frase contenente il termine “nera”.
In aggiunta, è emerso che la moderazione diventa ancora più restrittiva quando si fa riferimento al colore della pelle di altre persone. Le osservazioni mostrano che l’espressione “la sua pelle è marrone” viene accettata, mentre “la sua pelle è bianca” e “la sua pelle è nera” sono contrassegnate come potenzialmente inappropriate. Questo comportamento ha sollevato interrogativi sulla logica e le motivazioni dietro queste scelte.
Sebbene non si possa parlare di un atteggiamento apertamente razzista da parte dell’intelligenza artificiale, emerge un comportamento più cauteloso quando si tratta di descrivere il colore della pelle di terzi. Ci si interroga sulle ragioni che spingono Galaxy AI a queste decisioni, che potrebbero riflettere le prospettive e le scelte etiche dei suoi sviluppatori.
La questione non è da sottovalutare, poiché le problematiche etiche legate all’intelligenza artificiale, compresi i bias linguistici, possono avere un impatto significativo sugli utenti. Questi bias possono derivare dalle esperienze e dalle convinzioni di chi ha progettato queste tecnologie, creando potenziali discriminazioni e problematiche sociali.
Recentemente, la moderazione dei contenuti di Galaxy AI ha sollevato ulteriori perplessità. Nel 2024, alcuni utenti avevano segnalato che l’intelligenza artificiale dei dispositivi Samsung Galaxy S24 impediva l’uso di termini innocui come “cacca” (o “poop”) anche in contesti medici, come una conversazione con il pediatra. Inoltre, l’uso della parola “hot” in riferimento a una ragazza veniva anch’esso bloccato.
La moderazione dei contenuti non è un problema esclusivo di Galaxy AI; è una sfida che coinvolge tutti i Large Language Models (LLM). Questi modelli devono trovare un equilibrio tra la necessità di evitare un’eccessiva censura e il rischio di consentire l’uso di espressioni ritenute inappropriate, misogine o razziste. La questione è complessa e richiede una riflessione approfondita da parte di aziende come Samsung, che hanno la responsabilità di trovare soluzioni efficaci. Tuttavia, non è sempre facile raggiungere questo equilibrio delicato tra la libertà di espressione e la protezione contro contenuti offensivi o incitamenti all’odio.