Predsodki in pristranskosti v rezultatih umetne inteligence

Predsodki in pristranskosti v rezultatih umetne inteligence

Predsodki in pristranskosti v rezultatih umetne inteligence

Letos smo jih že nekaj naredili objave v zvezi z umetno inteligenco, njen odnos do brezplačne in odprtokodne programske opreme ter kako ju lahko uporabljamo na naših prosti in odprti operacijski sistemi, ki temeljijo na GNU/Linuxu. Zato bomo danes obravnavali še eno zanimivo temo o njih.

In tu gre za možnost pridobiti "predsodke in pristranskosti" v rezultatih umetne inteligence. Čeprav je umetna inteligenca običajno zelo uporabna, zahvaljujoč dejstvu, da lahko proizvede zelo natančne rezultate, lahko ti vsebujejo človeške ideološke pristranskosti, če niso sprejeti potrebni previdnostni ukrepi ali ukrepi.

Merlin in Translaite: 2 orodji za uporabo ChatGPT v Linuxu

Merlin in Translaite: 2 orodji za uporabo ChatGPT v Linuxu

Toda preden začnete to objavo o možnostih dobite "pristranskost in pristranskost" v rezultatih AI, priporočamo, da nato raziščete prejšnja sorodna objava z enakim:

Merlin in Translaite: 2 orodji za uporabo ChatGPT v Linuxu
Povezani članek:
Merlin in Translaite: 2 orodji za uporabo ChatGPT v Linuxu

Predsodki in pristranskosti: ali se lahko pojavijo v rezultatih umetne inteligence?

Predsodki in pristranskosti: ali se lahko pojavijo v rezultatih umetne inteligence?

O predsodkih in pristranskosti v rezultatih AI

Osebno sem jih v zadnjem času poskusil in priporočil nekaj orodja umetne inteligence, ki zagotovo mnogi temeljijo na uporabi imenovanega ChatBot OpenAI ChatGPT. In nisem imel večjih težav z napačne, netočne, napačne ali neustrezne ali žaljive rezultate. Vendar pa smo v kratkem času, odkar so te na sporedu, gotovo mnogi med nami brali o neprijetnih in celo nesprejemljivih situacijah, o rezultatih, ki jih povzročajo.

Na primer a nedavni primer napačnih ali netočnih rezultatov Bil je nedavni od Googlovega ChatBot Barda. Medtem, star primer z neprijetnimi ali žaljivimi rezultati Bilo je, ko je Microsoft na družbenem omrežju Twitter lansiral Tay, chatbota z umetno inteligenco, ki je po 16 urah delovanja objavil na tisoče tvitov, ki so na koncu postali odkrito rasistični, mizogini in antisemitski.

Vendar sem na internetu opazil neprijazne ali prijetne rezultate, zlasti ko so ustvarjene slike o skupinah ljudi ali določenih ljudeh. Zato mislim, da predsodki in človeške pristranskosti so lahko prisotni tudi v programski opremi AI. In da se morda to lahko zgodi, če so podatki, ki se uporabljajo za usposabljanje programske opreme AI, pristranski ali ko je programska oprema zasnovana z upoštevanjem določenega niza vrednot ali prepričanj določenih skupin.

Ker je velikokrat na različnih stopnjah razvoja Običajno so oblikovani z uporabo večinskih podatkov iz neke demografske skupine ali prevladujejo nad drugimi ali s parametri, da se izognejo vplivanju na skupine moči ali dajanju prednosti pomembnim skupinam družbe.

Možni ukrepi za preprečevanje

Možni ukrepi za preprečevanje

Da bi se izognili predsodkom in pristranskosti v programski opremi AI, morajo njegovi razvijalci vedno sprejeti ukrepe, kot so:

  1. Zagotovite, da so podatki, uporabljeni za usposabljanje programske opreme AI, reprezentativni za populacijo, za katero se bodo uporabljali, in da vrednote ali prepričanja, vdelana v programsko opremo, ustrezajo namenu.
  2. Izvedite ukrepe za raznolikost, vključenost in pravičnost (DIF), da zmanjšate pristranskost v programski opremi AI. Tako, da ne diskriminira določenih ljudi ali skupin.

Medtem, Uporabniki AI bi morali imeti kot temeljno pravilo:

  1. Bodite previdni pri sprejemanju odločitev na podlagi programske opreme AI ali pri ustvarjanju delovnih mest, blaga, izdelkov in storitev z njenimi rezultati.
  2. Vedno morajo upoštevati možnost predsodkov in pristranskosti umetne inteligence ter napak in netočnosti v ponujenih podatkih, preden se odločijo za njeno uporabo.
ChatGPT v sistemu Linux: namizni odjemalci in spletni brskalniki
Povezani članek:
ChatGPT v sistemu Linux: namizni odjemalci in spletni brskalniki

Abstraktna pasica za objavo

Povzetek

Če povzamemo, organizacije in posamezniki bi si morali prizadevati za informiranje o potencial za "pristranskost in pristranskost" programske opreme AI in kako se temu izogniti. In razvijalci storijo vse, da bi se temu izognili, da bi zagotovili, da bo Programska oprema AI se uporablja odgovorno in pošteno.

Ne pozabite, obiščite tudi začetek našega «stran», poleg uradnega kanala Telegram za več novic, vadnic in posodobitev Linuxa. Zahod Skupina, za več informacij o današnji temi.


Pustite svoj komentar

Vaš e-naslov ne bo objavljen. Obvezna polja so označena z *

*

*

  1. Za podatke odgovoren: Miguel Ángel Gatón
  2. Namen podatkov: Nadzor neželene pošte, upravljanje komentarjev.
  3. Legitimacija: Vaše soglasje
  4. Sporočanje podatkov: Podatki se ne bodo posredovali tretjim osebam, razen po zakonski obveznosti.
  5. Shranjevanje podatkov: Zbirka podatkov, ki jo gosti Occentus Networks (EU)
  6. Pravice: Kadar koli lahko omejite, obnovite in izbrišete svoje podatke.