Prietarai ir šališkumas dirbtinio intelekto rezultatuose

Prietarai ir šališkumas dirbtinio intelekto rezultatuose

Prietarai ir šališkumas dirbtinio intelekto rezultatuose

Iki šiol šiais metais padarėme keletą pranešimų, susijusių su dirbtiniu intelektu, jos ryšys su nemokama programine įranga ir atviruoju šaltiniu ir kaip galime juos naudoti savo nemokamos ir atviros operacinės sistemos, pagrįstos GNU/Linux. Todėl šiandien aptarsime dar vieną įdomią temą apie juos.

Ir tai yra apie galimybę gauti „prietarų ir šališkumo“ dirbtinio intelekto rezultatuose. Kadangi, nors dirbtinis intelektas paprastai yra labai naudingas, dėl to, kad jie gali duoti labai tikslius rezultatus, juose gali būti žmogaus ideologinių paklaidų, jei nesiimama būtinų atsargumo priemonių ar priemonių.

Merlin ir Translaite: 2 įrankiai, skirti naudoti „ChatGPT“ sistemoje „Linux“.

Merlin ir Translaite: 2 įrankiai, skirti naudoti „ChatGPT“ sistemoje „Linux“.

Tačiau prieš pradėdami šį įrašą apie galimybę gauti „šališkumą ir šališkumą“ AI rezultatuose, rekomenduojame tada ištirti ankstesnis susijęs įrašas su tuo pačiu:

Merlin ir Translaite: 2 įrankiai, skirti naudoti „ChatGPT“ sistemoje „Linux“.
Susijęs straipsnis:
Merlin ir Translaite: 2 įrankiai, skirti naudoti „ChatGPT“ sistemoje „Linux“.

Išankstiniai nusistatymai ir šališkumas: ar jų gali atsirasti AI rezultatuose?

Išankstiniai nusistatymai ir šališkumas: ar jų gali atsirasti AI rezultatuose?

Apie išankstinius nusistatymus ir šališkumą AI rezultatuose

Asmeniškai aš pastaruoju metu išbandžiau ir rekomendavau keletą dirbtinio intelekto įrankiai, kurių tikrai daugelis remiasi vadinamojo „ChatBot“ naudojimu OpenAI ChatGPT. Ir aš neturėjau jokių didelių problemų klaidingi, netikslūs, klaidingi, netinkami ar įžeidžiantys rezultatai. Tačiau per trumpą laiką, kai jie pasirodė eteryje, daugelis iš mūsų tikrai perskaitė apie nemalonias ir net nepriimtinas situacijas, apie jų generuojamus rezultatus.

Pavyzdžiui, a paskutinis klaidingų ar netikslių rezultatų atvejis Tai buvo naujausia iš Google ChatBot Bard. Nors, senas nemalonių ar įžeidžiančių rezultatų atvejis Būtent tada, kai „Microsoft“ socialinio tinklo platformoje „Twitter“ paleido dirbtinio intelekto pokalbių robotą „Tay“, kuris po 16 valandų veikimo pokalbių robotas paskelbė tūkstančius tviterių, kurie galiausiai tapo atvirai rasistiniais, misoginistiškais ir antisemitiškais.

Tačiau internete pastebėjau ne draugiškus ar malonius rezultatus, ypač kai generuojami vaizdai apie žmonių grupes ar konkrečius žmones. Todėl aš manau, kad AI programinėje įrangoje taip pat gali būti išankstinių nusistatymų ir žmonių šališkumo. Ir galbūt taip gali nutikti, kai AI programinei įrangai treniruoti naudojami duomenys yra šališki arba kai programinė įranga sukurta atsižvelgiant į tam tikrą vertybių rinkinį ar tam tikrų grupių įsitikinimus.

Kadangi daug kartų įvairiuose vystymosi etapuose, Paprastai jie sukurti naudojant daugumos duomenis iš tam tikros demografinės grupės arba vyraujantis prieš kitus, arba su parametrais, siekiant išvengti įtakos galios grupėms arba teikti pirmenybę svarbioms visuomenės grupėms.

Galimos priemonės to išvengti

Galimos priemonės to išvengti

Siekiant išvengti išankstinio nusistatymo ir šališkumo AI programinėje įrangoje, visada turi imtis jos kūrėjai, tokių priemonių kaip:

  1. Įsitikinkite, kad AI programinei įrangai mokyti naudojami duomenys reprezentuoja populiaciją, kuriai ji bus naudojama, ir kad programinėje įrangoje įterptos vertybės ar įsitikinimai atitinka paskirtį.
  2. Įdiekite įvairovės, įtraukimo ir sąžiningumo (DIF) priemones, kurios padės sumažinti AI programinės įrangos šališkumą. Taip, kad nebūtų diskriminuojami tam tikri žmonės ar grupės.

Nors AI naudotojai turėtų laikytis pagrindinės taisyklės:

  1. Būkite atsargūs priimdami sprendimus, pagrįstus dirbtinio intelekto programine įranga, arba kurdami darbus, prekes, produktus ir paslaugas pagal jos rezultatus.
  2. Prieš priimdami sprendimą dėl jų naudojimo, jie visada turėtų atsižvelgti į galimą AI išankstinį nusistatymą ir šališkumą, taip pat į siūlomų duomenų klaidas ir netikslumus.
„ChatGPT“ sistemoje „Linux“: staliniai klientai ir žiniatinklio naršyklės
Susijęs straipsnis:
„ChatGPT“ sistemoje „Linux“: staliniai klientai ir žiniatinklio naršyklės

Abstrakti reklaminė juosta įrašui

Santrauka

Apibendrinant galima teigti, kad organizacijos ir asmenys turėtų stengtis informuoti save apie AI programinės įrangos „šališkumo ir šališkumo“ galimybė ir kaip to išvengti. Ir kūrėjai daro viską, ką gali, kad to išvengtų, siekdami užtikrinti, kad AI programinė įranga naudojama atsakingai ir sąžiningai.

Taip pat atminkite, aplankykite mūsų pradžią «vieta», be oficialaus kanalo Telegram daugiau naujienų, mokymo programų ir Linux naujinimų. Vakarai grupė, norėdami gauti daugiau informacijos šios dienos tema.


Palikite komentarą

Jūsų elektroninio pašto adresas nebus skelbiamas. Privalomi laukai yra pažymėti *

*

*

  1. Atsakingas už duomenis: Miguel Ángel Gatón
  2. Duomenų paskirtis: kontroliuoti šlamštą, komentarų valdymą.
  3. Įteisinimas: jūsų sutikimas
  4. Duomenų perdavimas: Duomenys nebus perduoti trečiosioms šalims, išskyrus teisinius įsipareigojimus.
  5. Duomenų saugojimas: „Occentus Networks“ (ES) talpinama duomenų bazė
  6. Teisės: bet kuriuo metu galite apriboti, atkurti ir ištrinti savo informaciją.