Předsudky a předsudky ve výsledcích umělé inteligence

Předsudky a předsudky ve výsledcích umělé inteligence

Předsudky a předsudky ve výsledcích umělé inteligence

Letos jsme jich zatím vyrobili příspěvky související s umělou inteligencí, jeho vztah se svobodným softwarem a otevřeným zdrojovým kódem a jak je můžeme použít na našich svobodné a otevřené operační systémy založené na GNU/Linux. Proto se o nich dnes budeme věnovat dalšímu zajímavému tématu.

A to je o možnosti získat „předsudky a předsudky“ ve výsledcích umělé inteligence. I když jsou umělé inteligence obvykle velmi užitečné, díky skutečnosti, že mohou produkovat velmi přesné výsledky, mohou obsahovat lidské ideologické předsudky, pokud nejsou přijata nezbytná opatření nebo opatření.

Merlin a Translaite: 2 nástroje pro použití ChatGPT na Linuxu

Merlin a Translaite: 2 nástroje pro použití ChatGPT na Linuxu

Ale před zahájením tohoto příspěvku o možnosti získat „zaujatost a zaujatost“ ve výsledcích AI, doporučujeme vám poté prozkoumat předchozí související příspěvek se stejným:

Merlin a Translaite: 2 nástroje pro použití ChatGPT na Linuxu
Související článek:
Merlin a Translaite: 2 nástroje pro použití ChatGPT na Linuxu

Předsudky a předsudky: mohou se objevit ve výsledcích AI?

Předsudky a předsudky: mohou se objevit ve výsledcích AI?

O předsudcích a předsudcích ve výsledcích AI

Osobně jsem jich v poslední době pár vyzkoušel a doporučil nástroje umělé inteligence, což je jistě mnoho založeno na použití ChatBota zvaného OpenAI ChatGPT. A žádné větší problémy jsem s tím neměl chybné, nepřesné, nepravdivé nebo nevhodné či urážlivé výsledky. Nicméně za tu krátkou dobu, co jsou ve vysílání, mnozí z nás jistě četli o nepříjemných až nepřijatelných situacích, o jejich výsledcích.

Například: nedávný případ chybných nebo nepřesných výsledků Byl to ten nedávný od Google ChatBot Bard. Zatímco, starý případ nepříjemných nebo urážlivých výsledků Bylo to, když Microsoft spustil Tay, chatbota s umělou inteligencí, na platformě sociální sítě Twitter, která po 16 hodinách provozu zveřejnila tisíce tweetů, které se nakonec staly otevřeně rasistickými, misogynními a antisemitskými.

Na internetu jsem si však všiml nepřívětivých nebo příjemných výsledků, zvláště když se generují obrázky o skupinách lidí nebo konkrétních lidech. Proto si to myslím v softwaru umělé inteligence mohou být také předsudky a lidské předsudky. A to se možná může stát, když jsou data používaná k trénování softwaru AI neobjektivní, nebo když je software navržen s ohledem na konkrétní soubor hodnot nebo přesvědčení určitých skupin.

Protože mnohokrát, v různých fázích vývoje, Obvykle jsou navrženy pomocí většinových dat z nějaké demografické skupiny nebo převažující nad ostatními, nebo s parametry, aby se zabránilo ovlivnění mocenských skupin nebo zvýhodňování důležitých skupin společnosti.

Možná opatření, jak se tomu vyhnout

Možná opatření, jak se tomu vyhnout

Abychom se vyhnuli předsudkům a zaujatosti v softwaru AI, musí jeho vývojáři vždy přijmout opatření jako:

  1. Ujistěte se, že data použitá k trénování softwaru AI jsou reprezentativní pro populaci, pro kterou bude používána, a že hodnoty nebo přesvědčení vložené do softwaru jsou vhodné pro daný účel.
  2. Implementujte opatření zaměřená na rozmanitost, začlenění a spravedlivost (DIF), abyste pomohli snížit zaujatost v softwaru AI. Tak, aby to nediskriminovalo určité lidi nebo skupiny.

Zatímco, Uživatelé AI by měli mít jako základní pravidlo:

  1. Buďte opatrní při rozhodování na základě softwaru AI nebo při vytváření zakázek, zboží, produktů a služeb s jeho výsledky.
  2. Vždy by měli vzít v úvahu potenciál předsudků a zaujatosti AI a chyb a nepřesností v nabízených datech, než se rozhodnou o jejich použití.
ChatGPT na Linuxu: Klienti pro stolní počítače a webové prohlížeče
Související článek:
ChatGPT na Linuxu: Klienti pro stolní počítače a webové prohlížeče

Abstraktní banner pro příspěvek

Shrnutí

Stručně řečeno, organizace a jednotlivci by se měli snažit informovat sami sebe potenciál pro „zaujatost a zaujatost“ softwaru AI a jak se tomu vyhnout. A vývojáři dělají vše, co mohou, aby se tomu vyhnuli, aby zajistili, že Software AI se používá zodpovědně a spravedlivě.

Nezapomeňte také navštívit začátek našeho «místo», kromě oficiálního kanálu Telegram pro další novinky, návody a aktualizace Linuxu. Západ skupina, pro více informací k dnešnímu tématu.


Zanechte svůj komentář

Vaše e-mailová adresa nebude zveřejněna. Povinné položky jsou označeny *

*

*

  1. Odpovědný za údaje: Miguel Ángel Gatón
  2. Účel údajů: Ovládací SPAM, správa komentářů.
  3. Legitimace: Váš souhlas
  4. Sdělování údajů: Údaje nebudou sděleny třetím osobám, s výjimkou zákonných povinností.
  5. Úložiště dat: Databáze hostovaná společností Occentus Networks (EU)
  6. Práva: Vaše údaje můžete kdykoli omezit, obnovit a odstranit.