Considerazioni Etiche relative a sistemi che usano l'intelligenza artificiale oggi
Una riflessione interessante che riguarda da vicino è l'etica nell'uso di tecnologie di intelligenza artificiale.
Ricerche hanno evidenziato diversi potenziali rischi, associati a sistemi LLM (linguaggio naturale basato su modelli) addestrati su testo web.
È importante analizzare e documentare tali potenziali rischi indesiderati, attraverso documenti trasparenti, come modelli e dati utilizzati, usando report che includono anche informazioni sull'uso previsto e informazioni sui test effettuati.
In questo momento stiamo assistendo ad un esaltazione dei sistemi automatici generativi creati per la produzione di testi, immagini, video e suoni. Ma nessuno fornisce informazioni sulle fonti utilizzate e le percentuali di errore.
Diventa fondamentale oltre che etico, per i creatori delle tecnologie fornire informazioni in relazione al modello AI usato e i risultati della valutazione dei test, riportando un'analisi approfondita del dataset e degli output del modello per individuare eventuali distorsioni e rischi. Una maggiore trasparenza eviterà l'effetto distacco subito dopo il periodo di entusiasmo.
L'effetto distacco o repulsione è un fenomeno psicologico che si verifica quando una persona diventa disinteressata o addirittura ostile nei confronti di uno strumento tecnologico o di un'applicazione, subito dopo il periodo di entusiasmo iniziale. Questo effetto è spesso causato da aspettative troppo alte rispetto alle reali capacità dello strumento, da problemi di usabilità, da problemi di privacy o sicurezza, o da una mancanza di novità o stimoli che portano alla perdita di interesse. L'effetto distacco può anche essere causato da una sovrabbondanza di opzioni, che rende difficile scegliere l'opzione migliore per l'utente, o da una mancanza di personalizzazione, che rende l'esperienza poco coinvolgente.
Sebbene l'analisi aiuti a delineare alcuni potenziali rischi del modello, è essenziale effettuare un'analisi specifica del comportamento che gli utenti hanno utilizzando gli strumenti AI, attivando tutto ciò che è necessario per contestualizzare e mitigare possibili danni. La comprensione dei rischi e dei benefici di questi modelli è un argomento di ricerca importante, insieme allo sviluppo di soluzioni scalabili che possano porre dei limiti all'uso malintenzionato dei sistemi LLM.