Predsudky a predsudky vo výsledkoch umelej inteligencie

Predsudky a predsudky vo výsledkoch umelej inteligencie

Predsudky a predsudky vo výsledkoch umelej inteligencie

Tento rok sa nám ich zatiaľ podarilo vyrobiť príspevky týkajúce sa umelej inteligencie, jeho vzťah so slobodným softvérom a otvoreným zdrojom a ako ich môžeme použiť na našich slobodné a otvorené operačné systémy založené na GNU/Linux. Preto sa dnes budeme venovať ďalšej zaujímavej téme o nich.

A to je o možnosti získať „predsudky a predsudky“ vo výsledkoch umelej inteligencie. Keďže umelá inteligencia je zvyčajne veľmi užitočná, vďaka skutočnosti, že môže produkovať veľmi presné výsledky, môže obsahovať ľudské ideologické predsudky, ak sa neprijmú potrebné preventívne opatrenia alebo opatrenia.

Merlin a Translaite: 2 nástroje na používanie ChatGPT v systéme Linux

Merlin a Translaite: 2 nástroje na používanie ChatGPT v systéme Linux

Ale pred začatím tohto príspevku o možnosti získať „zaujatosť a zaujatosť“ vo výsledkoch AI, odporúčame vám potom preskúmať predchádzajúci súvisiaci príspevok s tým istým:

Merlin a Translaite: 2 nástroje na používanie ChatGPT v systéme Linux
Súvisiaci článok:
Merlin a Translaite: 2 nástroje na používanie ChatGPT v systéme Linux

Predsudky a predsudky: môžu sa vyskytnúť vo výsledkoch AI?

Predsudky a predsudky: môžu sa vyskytnúť vo výsledkoch AI?

O predsudkoch a predsudkoch vo výsledkoch AI

Osobne som ich v poslednej dobe vyskúšal a odporučil niekoľko nástroje umelej inteligencie, ktorý určite mnohí vychádzajú z používania ChatBot nazývaného OpenAI ChatGPT. A nemal som s tým žiadne väčšie problémy chybné, nepresné, nepravdivé alebo nevhodné či urážlivé výsledky. Mnohí z nás však za ten krátky čas, čo sú vo vysielaní, určite čítali o nepríjemných a dokonca neprijateľných situáciách, o výsledkoch, ktoré z nich vyplývajú.

Napríklad a nedávny prípad chybných alebo nepresných výsledkov Bol to ten nedávny od Google ChatBot Bard. zatiaľ čo starý prípad nepríjemných alebo urážlivých výsledkov Bolo to vtedy, keď Microsoft spustil Tay, chatbota s umelou inteligenciou, na platforme sociálnej siete Twitter, ktorá po 16 hodinách prevádzky zverejnila tisíce tweetov, ktoré sa nakoniec stali otvorene rasistickými, mizogýnnymi a antisemitskými.

Na internete som si však všimol nie priateľské alebo príjemné výsledky, najmä ak sa generujú obrázky o skupinách ľudí alebo konkrétnych ľuďoch. Preto si myslím, že v softvéri AI môžu byť prítomné aj predsudky a ľudské predsudky. A to sa možno môže stať, keď sú údaje používané na trénovanie softvéru AI skreslené, alebo keď je softvér navrhnutý s ohľadom na konkrétny súbor hodnôt alebo presvedčení určitých skupín.

Keďže mnohokrát, v rôznych štádiách vývoja, Zvyčajne sú navrhnuté s použitím väčšinových údajov z nejakej demografickej skupiny alebo s prevahou nad ostatnými, alebo s parametrami, aby sa zabránilo ovplyvneniu mocenských skupín alebo zvýhodňovaniu dôležitých skupín spoločnosti.

Možné opatrenia, ako sa tomu vyhnúť

Možné opatrenia, ako sa tomu vyhnúť

Aby sa predišlo predsudkom a zaujatosti v softvéri AI, musia jeho vývojári vždy prijať opatrenia ako:

  1. Uistite sa, že údaje používané na trénovanie softvéru AI sú reprezentatívne pre populáciu, pre ktorú sa budú používať, a že hodnoty alebo presvedčenia vložené do softvéru zodpovedajú účelu.
  2. Implementujte opatrenia týkajúce sa rozmanitosti, inklúzie a spravodlivosti (DIF), aby ste pomohli znížiť zaujatosť v softvéri AI. Tak, aby to nediskriminovalo určitých ľudí alebo skupiny.

Zatiaľ čo Používatelia AI by mali mať ako základné pravidlo:

  1. Buďte opatrní pri rozhodovaní na základe softvéru AI alebo pri vytváraní úloh, tovaru, produktov a služieb s jeho výsledkami.
  2. Vždy by mali brať do úvahy potenciál predsudkov a zaujatosti AI a chyby a nepresnosti v ponúkaných údajoch predtým, ako sa rozhodnú o ich použití.
ChatGPT v systéme Linux: Klienti pre stolné počítače a webové prehliadače
Súvisiaci článok:
ChatGPT v systéme Linux: Klienti pre stolné počítače a webové prehliadače

Abstraktný banner pre príspevok

Zhrnutie

Stručne povedané, organizácie a jednotlivci by sa mali snažiť informovať sami seba potenciál pre „zaujatosť a zaujatosť“ softvéru AI a ako sa tomu vyhnúť. A vývojári robia všetko, čo môžu, aby sa tomu vyhli, aby zabezpečili, že Softvér AI sa používa zodpovedne a spravodlivo.

Nezabudnite tiež navštíviť začiatok nášho «miesto», okrem oficiálneho kanála telegram pre ďalšie novinky, návody a aktualizácie systému Linux. West skupina, pre viac informácií o dnešnej téme.


Zanechajte svoj komentár

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *

*

*

  1. Zodpovedný za údaje: Miguel Ángel Gatón
  2. Účel údajov: Kontrolný SPAM, správa komentárov.
  3. Legitimácia: Váš súhlas
  4. Oznamovanie údajov: Údaje nebudú poskytnuté tretím stranám, iba ak to vyplýva zo zákona.
  5. Ukladanie dát: Databáza hostená spoločnosťou Occentus Networks (EU)
  6. Práva: Svoje údaje môžete kedykoľvek obmedziť, obnoviť a vymazať.