Letos jsme jich zatím vyrobili příspěvky související s umělou inteligencí, jeho vztah se svobodným softwarem a otevřeným zdrojovým kódem a jak je můžeme použít na našich svobodné a otevřené operační systémy založené na GNU/Linux. Proto se o nich dnes budeme věnovat dalšímu zajímavému tématu.
A to je o možnosti získat „předsudky a předsudky“ ve výsledcích umělé inteligence. I když jsou umělé inteligence obvykle velmi užitečné, díky skutečnosti, že mohou produkovat velmi přesné výsledky, mohou obsahovat lidské ideologické předsudky, pokud nejsou přijata nezbytná opatření nebo opatření.
Ale před zahájením tohoto příspěvku o možnosti získat „zaujatost a zaujatost“ ve výsledcích AI, doporučujeme vám poté prozkoumat předchozí související příspěvek se stejným:
Předsudky a předsudky: mohou se objevit ve výsledcích AI?
O předsudcích a předsudcích ve výsledcích AI
Osobně jsem jich v poslední době pár vyzkoušel a doporučil nástroje umělé inteligence, což je jistě mnoho založeno na použití ChatBota zvaného OpenAI ChatGPT. A žádné větší problémy jsem s tím neměl chybné, nepřesné, nepravdivé nebo nevhodné či urážlivé výsledky. Nicméně za tu krátkou dobu, co jsou ve vysílání, mnozí z nás jistě četli o nepříjemných až nepřijatelných situacích, o jejich výsledcích.
Například: nedávný případ chybných nebo nepřesných výsledků Byl to ten nedávný od Google ChatBot Bard. Zatímco, starý případ nepříjemných nebo urážlivých výsledků Bylo to, když Microsoft spustil Tay, chatbota s umělou inteligencí, na platformě sociální sítě Twitter, která po 16 hodinách provozu zveřejnila tisíce tweetů, které se nakonec staly otevřeně rasistickými, misogynními a antisemitskými.
Na internetu jsem si však všiml nepřívětivých nebo příjemných výsledků, zvláště když se generují obrázky o skupinách lidí nebo konkrétních lidech. Proto si to myslím v softwaru umělé inteligence mohou být také předsudky a lidské předsudky. A to se možná může stát, když jsou data používaná k trénování softwaru AI neobjektivní, nebo když je software navržen s ohledem na konkrétní soubor hodnot nebo přesvědčení určitých skupin.
Protože mnohokrát, v různých fázích vývoje, Obvykle jsou navrženy pomocí většinových dat z nějaké demografické skupiny nebo převažující nad ostatními, nebo s parametry, aby se zabránilo ovlivnění mocenských skupin nebo zvýhodňování důležitých skupin společnosti.
Možná opatření, jak se tomu vyhnout
Abychom se vyhnuli předsudkům a zaujatosti v softwaru AI, musí jeho vývojáři vždy přijmout opatření jako:
- Ujistěte se, že data použitá k trénování softwaru AI jsou reprezentativní pro populaci, pro kterou bude používána, a že hodnoty nebo přesvědčení vložené do softwaru jsou vhodné pro daný účel.
- Implementujte opatření zaměřená na rozmanitost, začlenění a spravedlivost (DIF), abyste pomohli snížit zaujatost v softwaru AI. Tak, aby to nediskriminovalo určité lidi nebo skupiny.
Zatímco, Uživatelé AI by měli mít jako základní pravidlo:
- Buďte opatrní při rozhodování na základě softwaru AI nebo při vytváření zakázek, zboží, produktů a služeb s jeho výsledky.
- Vždy by měli vzít v úvahu potenciál předsudků a zaujatosti AI a chyb a nepřesností v nabízených datech, než se rozhodnou o jejich použití.
Shrnutí
Stručně řečeno, organizace a jednotlivci by se měli snažit informovat sami sebe potenciál pro „zaujatost a zaujatost“ softwaru AI a jak se tomu vyhnout. A vývojáři dělají vše, co mohou, aby se tomu vyhnuli, aby zajistili, že Software AI se používá zodpovědně a spravedlivě.
Nezapomeňte také navštívit začátek našeho «místo», kromě oficiálního kanálu Telegram pro další novinky, návody a aktualizace Linuxu. Západ skupina, pro více informací k dnešnímu tématu.