Predrasude i predrasude u rezultatima vještačke inteligencije

Predrasude i predrasude u rezultatima vještačke inteligencije

Predrasude i predrasude u rezultatima vještačke inteligencije

Do sada smo ove godine napravili neke postove vezane za umjetnu inteligenciju, njegov odnos sa slobodnim softverom i otvorenim kodom, te kako ih možemo koristiti na našem slobodni i otvoreni operativni sistemi zasnovani na GNU/Linuxu. Stoga ćemo se danas pozabaviti još jednom zanimljivom temom o njima.

A ovo je, o mogućnosti dobiti «predrasude i predrasude» u rezultatima vještačke inteligencije. Budući da, iako je AI obično vrlo korisna, zahvaljujući činjenici da može proizvesti vrlo precizne rezultate, oni mogu sadržavati ljudske ideološke predrasude, ako se ne preduzmu potrebne mjere opreza ili mjere.

Merlin i Translaite: 2 alata za korištenje ChatGPT-a na Linuxu

Merlin i Translaite: 2 alata za korištenje ChatGPT-a na Linuxu

Ali, prije početka ovog posta o mogućnosti dobiti "pristrasnost i pristrasnost" u rezultatima AI, preporučujemo da zatim istražite prethodni srodni post sa istim:

Merlin i Translaite: 2 alata za korištenje ChatGPT-a na Linuxu
Vezani članak:
Merlin i Translaite: 2 alata za korištenje ChatGPT-a na Linuxu

Predrasude i predrasude: mogu li se pojaviti u rezultatima AI?

Predrasude i predrasude: mogu li se pojaviti u rezultatima AI?

O predrasudama i predrasudama u rezultatima AI

Lično, u posljednje vrijeme sam isprobao i preporučio nekoliko alati za umjetnu inteligenciju, koji se vrlo sigurno mnogi zasnivaju na upotrebi ChatBot-a pod nazivom OpenAI ChatGPT. I nisam imao nekih većih problema pogrešne, netačne, lažne ili neprikladne ili uvredljive rezultate. Međutim, za kratko vrijeme koje se emituju, mnogi od nas su sigurno čitali o neugodnim, pa čak i neprihvatljivim situacijama, o rezultatima koje one generiraju.

Na primjer, a nedavni slučaj pogrešnih ili netačnih rezultata Bio je to nedavni od Google-ovog ChatBot Barda. dok, stari slučaj neugodnih ili uvredljivih rezultata Bilo je to kada je Microsoft pokrenuo Tay, chatbot sa umjetnom inteligencijom, na platformi društvenih mreža Twitter, koji je nakon 16 sati rada objavio hiljade tvitova, koji su na kraju postali otvoreno rasistički, mizoginistički i antisemitski.

Međutim, primijetio sam na internetu, ne prijateljske ili ugodne rezultate, posebno kada se stvaraju slike o grupama ljudi ili određenim ljudima. Stoga, mislim da predrasude i ljudske predrasude također mogu biti prisutni u softveru AI. I da se to možda može dogoditi kada su podaci koji se koriste za obuku AI softvera pristrani, ili kada je softver dizajniran s određenim skupom vrijednosti ili uvjerenja određenih grupa na umu.

Budući da je, mnogo puta, u svojim različitim fazama razvoja, Obično su dizajnirani koristeći podatke većine iz neke demografske grupe ili prevladavajući nad drugima, ili sa parametrima za izbjegavanje utjecaja na grupe moći ili favoriziranja važnih grupa društva.

Moguće mjere za izbjegavanje

Moguće mjere za izbjegavanje

Kako bi se izbjegle predrasude i pristranosti u softveru AI, uvijek moraju preduzeti njegovi programeri, mjere kao što su:

  1. Osigurajte da podaci koji se koriste za obuku AI softvera predstavljaju populaciju za koju će se koristiti i da vrijednosti ili uvjerenja ugrađena u softver odgovaraju svrsi.
  2. Implementirajte mjere raznolikosti, uključivanja i pravičnosti (DIF) kako biste pomogli u smanjenju pristrasnosti u softveru AI. Na način da ne diskriminiše određene ljude ili grupe.

Dok, Korisnici AI bi trebali imati kao osnovno pravilo:

  1. Budite oprezni pri donošenju odluka zasnovanih na AI softveru ili kada kreirate poslove, robu, proizvode i usluge s njihovim rezultatima.
  2. Uvek treba da uzmu u obzir potencijal za predrasude i pristrasnost veštačke inteligencije, kao i za greške i netačnosti u ponuđenim podacima, pre nego što donesu odluku o njenoj upotrebi.
ChatGPT na Linuxu: Desktop klijenti i web pretraživači
Vezani članak:
ChatGPT na Linuxu: Desktop klijenti i web pretraživači

Apstraktni baner za post

Resumen

Ukratko, organizacije i pojedinci treba da nastoje da se informišu o tome potencijal za "pristrasnost i pristrasnost" softvera AI i kako to izbjeći. A programeri čine sve što mogu da to izbjegnu, kako bi osigurali da AI softver se koristi odgovorno i pošteno.

Također, zapamtite, posjetite početak našeg «sajt», pored zvaničnog kanala telegram za više vijesti, tutorijala i ažuriranja za Linux. Zapad grupa, za više informacija o današnjoj temi.


Ostavite komentar

Vaša e-mail adresa neće biti objavljena. Obavezna polja su označena sa *

*

*

  1. Za podatke odgovoran: Miguel Ángel Gatón
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obavezi.
  5. Pohrana podataka: Baza podataka koju hostuje Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.