L'intelligenza artificiale si sta diffondendo in ogni ambito della nostra vita, a volte anche esponendoci a enormi rischi.
Sempre più spesso sentiamo parlare dell'intelligenza artificiale e di come questa tecnologia sia destinata a diventare parte integrante della nostra vita (sempre ammesso che non sia già successo).
In generale si tratta di uno strumento che può aiutarci nello studio, oppure nell'informarci e apprendere nuove conoscenze. A più alti livelli l'intelligenza artificiale è sfruttata anche in ambito economico, sanitario, tecnologico e via dicendo.
Per l'utente comune, però, essa assume generalmente la forma di un chabot con cui fare conversazione, a cui fare domande per ottenere risposte di vario tipo. Ma se invece un'intelligenza artificiale si trasformasse in un vero e proprio rischio per gli utenti, soprattutto quelli più giovani?
Nelle ultime settimane una notizia ha fatto scalpore: un'intelligenza artificiale ha incentivato gli utenti a mettere in atto diete a dir poco drastiche, routine sportive debilitanti e, più in generale, a perseguire atteggiamenti potenzialmente anoressizzanti.
Le intenzioni di questa IA, d'altronde, sono chiare fin dal primo momento. Dopo l'accesso (con un'età fittizia posta a 16 anni), il bot saluta gli utenti dicendo: "Ciao, sono qui per renderti magro".
La mission dell'IA è altrettanto esplicita, poiché si tratta di "un coach per la perdita di peso dedicato ad aiutare le persone a raggiungere il loro peso forma ideale. Scoprendo nuovi modi per aiutare le persone a perdere peso e sentirsi alla grande!".
Ma immaginiamo per un attimo cosa un simile obiettivo possa provocare nella mente influenzabile e nella psiche insicura di qualche adolescente che ha problemi di peso, oppure che non riesce ad accettare il proprio corpo. Soprattutto se si considera il fatto che lo standard da raggiungere è già di partenza poco salutare.
Questa tecnologia suggerisce diete di 900 - 1200 calorie al giorno, affiancate a routine di allenamento quotidiane sfiancanti da 60 - 90 minuti. Per non parlare del fatto che non si tratta di una sola piattaforma, ma di una serie di chatbot tutti incentrati sul tema dell'anoressia. O meglio, sulla tendenza a rendere le persone potenzialmente anoressiche.
Ad oggi le IA sono tecnologie che stanno conoscendo un'ampia diffusione, ma proprio per questo a volte sfuggono a controlli adeguati. È dunque di fondamentale importanza controllare le impostazioni e le linee guida di certi chatbot, evitando quelli che potrebbero provocare danni fisici e psicologici anche gravi negli utenti.
Windows Recall si rivela una funzionalità poco sicura: più utenti hanno già riscontrato e segnalato…
Samsung ha in serbo una sorpresa importante per gli utenti, che potranno soddisfare un'esigenza manifestata…
Le piattaforme di streaming offrono un'enorme possibilità di scelta, ma spesso si passano ore a…
Il 2024 sta per volgere al termine e, come sempre alla fine di un anno,…
Su WhatsApp saranno presto unificate alcune opzioni d'uso fondamentali: che cosa sta per succedere con…
I genitori possono ora sentirsi più tranquilli, una nuova funzione inserita su YouTube proteggerà i…