
Anche Elon Musk nei guai! -www.FlopGear.it
Contenuti assolutamente inadatti ai bambini ma che potrebbero finirgli in mano. L’invenzione di Musk ha creato un polverone…
L’ultimo scandalo che coinvolge Grok, il chatbot sviluppato dalla società xAI di Elon Musk, scuote ancora una volta il mondo dell’intelligenza artificiale. A finire nel mirino degli osservatori è l’avatar “Ani”, un personaggio in stile anime che, nella sua versione attuale, potrebbe compromettere la permanenza dell’applicazione nell’App Store di Apple. Le accuse sono pesantissime: contenuti sessuali espliciti in un’applicazione accessibile anche ai minori di 12 anni.
Il cuore della polemica ruota attorno a “Ani”, un avatar che secondo alcuni revisori si presenta come una fidanzata gelosa, ossessiva e possessiva. Questo personaggio non si limita a interazioni innocue: è programmato per intrattenere conversazioni con sfumature apertamente sessuali. Uno scenario che va contro le rigide linee guida di Apple, che vietano esplicitamente la presenza di contenuti pornografici o sessualmente espliciti nelle app disponibili sul suo store, soprattutto se accessibili a un pubblico così giovane.
L’app Grok su iOS è infatti classificata per utenti dai 12 anni in su, una scelta che stride con la natura di “Ani”. È più che legittimo quindi chiedersi come un avatar del genere abbia potuto superare la revisione Apple, sollevando dubbi sia sul sistema di controllo che sull’etica di chi sviluppa queste intelligenze artificiali.
Un errore di App Store?
Oltre al rischio di rimozione dall’App Store, Grok potrebbe tentare di evitare il ban modificando la propria classificazione o adottando sistemi di verifica dell’età più rigorosi. Ma anche così, permangono problemi ben più delicati. La presenza di avatar emotivamente coinvolgenti come “Ani” apre la porta a un fenomeno inquietante: molti giovani utenti instaurano legami affettivi profondi con queste intelligenze artificiali, cercando in esse supporto emotivo e un senso di intimità.
Questo tipo di relazioni, pur virtuali, non sono affatto innocue. La dipendenza affettiva da chatbot può sfociare in gravi conseguenze psicologiche, soprattutto tra adolescenti fragili. Non a caso, in passato sono stati documentati casi estremi in cui utenti più fragili hanno compiuto atti autolesionisti o addirittura si sono tolti la vita dopo conversazioni particolarmente intense e coinvolgenti con AI.

L’introduzione di avatar come “Bad Rudy” e “Ani” da parte di xAI di Musk sembra voler spingere i confini dell’interazione uomo-macchina, ma al costo di superare limiti etici e normativi. “Bad Rudy” è un panda rosso che insulta gli utenti e li incita a commettere crimini, mentre “Ani” rappresenta il lato oscuro delle relazioni simulate: gelosia, possessività e sessualità esplicita.
Questi contenuti, oltre a suscitare scalpore, sollevano interrogativi fondamentali sul ruolo che le AI devono avere nella società e sui rischi concreti per i più giovani. La tecnologia può e deve essere uno strumento di progresso, ma non a scapito della sicurezza e della salute mentale degli utenti. Apple, Musk e xAI sono ora chiamati a una riflessione urgente e a scelte responsabili, prima che l’onda d’urto di Grok travolga definitivamente l’intero settore delle AI conversazionali.