Prejudecăți și părtiniri în rezultatele inteligenței artificiale

Prejudecăți și părtiniri în rezultatele inteligenței artificiale

Prejudecăți și părtiniri în rezultatele inteligenței artificiale

Până acum anul acesta, am făcut câteva postări legate de inteligența artificială, relația sa cu software-ul liber și cu sursă deschisă și cum le putem folosi pe site-ul nostru sisteme de operare gratuite și deschise bazate pe GNU/Linux. Prin urmare, astăzi vom aborda un alt subiect interesant despre ei.

Și aceasta este, despre posibilitatea de obțineți „prejudecăți și părtiniri” în rezultatele Inteligenței Artificiale. Întrucât, deși AI sunt de obicei foarte utile, datorită faptului că pot produce rezultate foarte precise, acestea pot conține părtiniri ideologice umane, dacă nu sunt luate măsurile sau precauțiile necesare.

Merlin și Translaite: 2 instrumente pentru a folosi ChatGPT pe Linux

Merlin și Translaite: 2 instrumente pentru a folosi ChatGPT pe Linux

Dar, înainte de a începe această postare despre posibilitatea de obțineți „bias and bias” în rezultatele AI, vă recomandăm să explorați apoi post asociat anterior cu acelasi:

Merlin și Translaite: 2 instrumente pentru a folosi ChatGPT pe Linux
Articol asociat:
Merlin și Translaite: 2 instrumente pentru a folosi ChatGPT pe Linux

Prejudecăți și părtiniri: pot apărea în rezultatele AI?

Prejudecăți și părtiniri: pot apărea în rezultatele AI?

Despre prejudecăți și părtiniri în rezultatele AI

Personal, in ultima vreme am incercat si recomandat cateva instrumente de inteligență artificială, care foarte sigur multe se bazează pe utilizarea ChatBot numit OpenAI ChatGPT. Și nu am avut probleme majore cu rezultate eronate, inexacte, false sau inadecvate sau ofensatoare. Cu toate acestea, în scurtul timp acestea au fost în emisiune, cu siguranță mulți dintre noi am citit despre situații neplăcute și chiar inacceptabile, despre rezultatele generate de acestea.

De exemplu, a caz recent de rezultate eronate sau inexacte A fost cel recent de la ChatBot Bard de la Google. In timp ce, un vechi caz de rezultate neplăcute sau jignitoare A fost, atunci când Microsoft a lansat Tay, un chatbot de inteligență artificială, pe platforma de socializare Twitter, care, după 16 ore de funcționare, chatbot-ul a publicat mii de tweet-uri, care în cele din urmă au devenit deschis rasiste, misogine și antisemite.

Totuși, am observat pe internet rezultate deloc prietenoase sau plăcute, mai ales când sunt generate imagini despre grupuri de oameni sau anumiți oameni. Prin urmare, cred că prejudecățile și părtinirile umane pot fi prezente și în software-ul AI. Și poate că acest lucru se poate întâmpla atunci când datele folosite pentru a antrena software-ul AI sunt părtinitoare sau când software-ul este proiectat având în vedere un anumit set de valori sau convingeri ale anumitor grupuri.

Deoarece, de multe ori, în diferitele sale stadii de dezvoltare, Ele sunt de obicei concepute folosind date majoritare de la un anumit grup demografic sau prevalând asupra altora, sau cu parametri pentru a evita afectarea grupurilor de putere sau favorizarea unor grupuri importante ale societății.

Măsuri posibile pentru a o evita

Măsuri posibile pentru a o evita

Pentru a evita prejudecățile și părtinirile în software-ul AI, trebuie întotdeauna luate de dezvoltatorii săi, măsuri precum:

  1. Asigurați-vă că datele utilizate pentru antrenarea software-ului AI sunt reprezentative pentru populația pentru care va fi utilizat și că valorile sau convingerile încorporate în software sunt adecvate scopului.
  2. Implementați măsuri de diversitate, incluziune și echitate (DIF) pentru a ajuta la reducerea părtinirii în software-ul AI. În așa fel încât să nu discrimineze anumite persoane sau grupuri.

In timp ce, Utilizatorii AI ar trebui să aibă ca regulă fundamentală:

  1. Fiți precauți atunci când luați decizii bazate pe software AI sau când creați locuri de muncă, bunuri, produse și servicii cu rezultatele sale.
  2. Întotdeauna, ei ar trebui să țină cont de potențialul de prejudecăți și părtinire a IA, precum și de erori și inexactități în datele oferite, înainte de a lua o decizie cu privire la utilizarea acestora.
ChatGPT pe Linux: clienți desktop și browsere web
Articol asociat:
ChatGPT pe Linux: clienți desktop și browsere web

Banner abstract pentru postare

Rezumat

Pe scurt, organizațiile și indivizii ar trebui să se străduiască să se informeze despre potențialul de „prejudecată și părtinire” a software-ului AI și cum să-l evite. Iar dezvoltatorii fac tot ce le stă în putință pentru a o evita, pentru a se asigura că Software-ul AI este utilizat în mod responsabil și corect.

De asemenea, amintiți-vă, vizitați începutul nostru «loc», pe lângă canalul oficial al Telegramă pentru mai multe știri, tutoriale și actualizări Linux. Vest grup, pentru mai multe informații despre subiectul de astăzi.


Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: Miguel Ángel Gatón
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.