Finora quest'anno ne abbiamo realizzati alcuni post relativi all'Intelligenza Artificiale, il suo rapporto con il Software Libero e l'Open Source, e come possiamo usarli sul nostro sistemi operativi liberi e aperti basati su GNU/Linux. Pertanto, oggi affronteremo un altro argomento interessante su di loro.
E questo riguarda la possibilità di ottenere «pregiudizi e pregiudizi» nei risultati dell'Intelligenza Artificiale. Poiché, sebbene le AI siano solitamente molto utili, grazie al fatto che possono produrre risultati molto precisi, queste possono contenere pregiudizi ideologici umani, se non vengono prese le precauzioni o le misure necessarie.
Ma, prima di iniziare questo post sulla possibilità di ottenere "pregiudizi e pregiudizi" nei risultati AI, ti consigliamo quindi di esplorare il file precedente articolo correlato con lo stesso:
Pregiudizi e pregiudizi: possono verificarsi nei risultati dell'IA?
Su pregiudizi e pregiudizi nei risultati di AI
Personalmente, ultimamente ne ho provati e consigliati alcuni strumenti di intelligenza artificiale, che sicuramente molti si basano sull'uso del ChatBot chiamato OpenAI ChatGPT. E non ho avuto grossi problemi con risultati errati, imprecisi, falsi o inappropriati o offensivi. Tuttavia, nel breve tempo in cui questi sono stati trasmessi, molti di noi hanno sicuramente letto di situazioni spiacevoli e persino inaccettabili, dei risultati che generano.
Ad esempio, a caso recente di risultati errati o imprecisi Era quello recente del ChatBot Bard di Google. Mentre, un vecchio caso di risultati spiacevoli o offensivi È stato quando Microsoft ha lanciato Tay, un chatbot di intelligenza artificiale, sulla piattaforma di social networking Twitter, che, dopo 16 ore di funzionamento, il chatbot ha pubblicato migliaia di tweet, che alla fine sono diventati apertamente razzisti, misogini e antisemiti.
Tuttavia, ho notato su Internet risultati non amichevoli o piacevoli, soprattutto quando vengono generate immagini su gruppi di persone o persone specifiche. Pertanto, penso che pregiudizi e pregiudizi umani possono essere presenti anche nel software di intelligenza artificiale. E che forse questo può accadere quando i dati utilizzati per addestrare il software di intelligenza artificiale sono distorti o quando il software è progettato tenendo conto di un particolare insieme di valori o credenze di determinati gruppi.
Poiché, molte volte, nelle sue varie fasi di sviluppo, Di solito sono progettati utilizzando i dati della maggioranza di un gruppo demografico o prevalere sugli altri, o con parametri tali da non incidere su gruppi di potere o favorire gruppi importanti della società.
Possibili misure per evitarlo
Per evitare pregiudizi e pregiudizi nel software AI, devono sempre essere prese dai suoi sviluppatori, misure come:
- Garantire che i dati utilizzati per addestrare il software AI siano rappresentativi della popolazione per la quale verrà utilizzato e che i valori o le convinzioni incorporate nel software siano adatti allo scopo.
- Implementa misure di diversità, inclusione ed equità (DIF) per contribuire a ridurre i pregiudizi nel software di intelligenza artificiale. In modo tale da non discriminare determinate persone o gruppi.
Mentre, Gli utenti AI dovrebbero avere come regola fondamentale:
- Esercitare cautela quando si prendono decisioni basate sul software AI o quando si creano lavori, beni, prodotti e servizi con i suoi risultati.
- Dovrebbero sempre tenere conto del potenziale pregiudizio e pregiudizio dell'IA e degli errori e delle imprecisioni nei dati offerti, prima di prendere una decisione in merito al suo utilizzo.
Riassunto
In sintesi, le organizzazioni e gli individui dovrebbero sforzarsi di informarsi in merito il potenziale di "pregiudizi e pregiudizi" del software AI e come evitarlo. E gli sviluppatori fanno tutto il possibile per evitarlo, al fine di garantire che il Il software AI viene utilizzato in modo responsabile ed equo.
Inoltre, ricorda, visita l'inizio del ns «sito», oltre al canale ufficiale di Telegram per ulteriori notizie, tutorial e aggiornamenti di Linux. ovest gruppo, per ulteriori informazioni sull'argomento di oggi.