Iki šiol šiais metais padarėme keletą pranešimų, susijusių su dirbtiniu intelektu, jos ryšys su nemokama programine įranga ir atviruoju šaltiniu ir kaip galime juos naudoti savo nemokamos ir atviros operacinės sistemos, pagrįstos GNU/Linux. Todėl šiandien aptarsime dar vieną įdomią temą apie juos.
Ir tai yra apie galimybę gauti „prietarų ir šališkumo“ dirbtinio intelekto rezultatuose. Kadangi, nors dirbtinis intelektas paprastai yra labai naudingas, dėl to, kad jie gali duoti labai tikslius rezultatus, juose gali būti žmogaus ideologinių paklaidų, jei nesiimama būtinų atsargumo priemonių ar priemonių.
Tačiau prieš pradėdami šį įrašą apie galimybę gauti „šališkumą ir šališkumą“ AI rezultatuose, rekomenduojame tada ištirti ankstesnis susijęs įrašas su tuo pačiu:
Išankstiniai nusistatymai ir šališkumas: ar jų gali atsirasti AI rezultatuose?
Apie išankstinius nusistatymus ir šališkumą AI rezultatuose
Asmeniškai aš pastaruoju metu išbandžiau ir rekomendavau keletą dirbtinio intelekto įrankiai, kurių tikrai daugelis remiasi vadinamojo „ChatBot“ naudojimu OpenAI ChatGPT. Ir aš neturėjau jokių didelių problemų klaidingi, netikslūs, klaidingi, netinkami ar įžeidžiantys rezultatai. Tačiau per trumpą laiką, kai jie pasirodė eteryje, daugelis iš mūsų tikrai perskaitė apie nemalonias ir net nepriimtinas situacijas, apie jų generuojamus rezultatus.
Pavyzdžiui, a paskutinis klaidingų ar netikslių rezultatų atvejis Tai buvo naujausia iš Google ChatBot Bard. Nors, senas nemalonių ar įžeidžiančių rezultatų atvejis Būtent tada, kai „Microsoft“ socialinio tinklo platformoje „Twitter“ paleido dirbtinio intelekto pokalbių robotą „Tay“, kuris po 16 valandų veikimo pokalbių robotas paskelbė tūkstančius tviterių, kurie galiausiai tapo atvirai rasistiniais, misoginistiškais ir antisemitiškais.
Tačiau internete pastebėjau ne draugiškus ar malonius rezultatus, ypač kai generuojami vaizdai apie žmonių grupes ar konkrečius žmones. Todėl aš manau, kad AI programinėje įrangoje taip pat gali būti išankstinių nusistatymų ir žmonių šališkumo. Ir galbūt taip gali nutikti, kai AI programinei įrangai treniruoti naudojami duomenys yra šališki arba kai programinė įranga sukurta atsižvelgiant į tam tikrą vertybių rinkinį ar tam tikrų grupių įsitikinimus.
Kadangi daug kartų įvairiuose vystymosi etapuose, Paprastai jie sukurti naudojant daugumos duomenis iš tam tikros demografinės grupės arba vyraujantis prieš kitus, arba su parametrais, siekiant išvengti įtakos galios grupėms arba teikti pirmenybę svarbioms visuomenės grupėms.
Galimos priemonės to išvengti
Siekiant išvengti išankstinio nusistatymo ir šališkumo AI programinėje įrangoje, visada turi imtis jos kūrėjai, tokių priemonių kaip:
- Įsitikinkite, kad AI programinei įrangai mokyti naudojami duomenys reprezentuoja populiaciją, kuriai ji bus naudojama, ir kad programinėje įrangoje įterptos vertybės ar įsitikinimai atitinka paskirtį.
- Įdiekite įvairovės, įtraukimo ir sąžiningumo (DIF) priemones, kurios padės sumažinti AI programinės įrangos šališkumą. Taip, kad nebūtų diskriminuojami tam tikri žmonės ar grupės.
Nors AI naudotojai turėtų laikytis pagrindinės taisyklės:
- Būkite atsargūs priimdami sprendimus, pagrįstus dirbtinio intelekto programine įranga, arba kurdami darbus, prekes, produktus ir paslaugas pagal jos rezultatus.
- Prieš priimdami sprendimą dėl jų naudojimo, jie visada turėtų atsižvelgti į galimą AI išankstinį nusistatymą ir šališkumą, taip pat į siūlomų duomenų klaidas ir netikslumus.
Santrauka
Apibendrinant galima teigti, kad organizacijos ir asmenys turėtų stengtis informuoti save apie AI programinės įrangos „šališkumo ir šališkumo“ galimybė ir kaip to išvengti. Ir kūrėjai daro viską, ką gali, kad to išvengtų, siekdami užtikrinti, kad AI programinė įranga naudojama atsakingai ir sąžiningai.
Taip pat atminkite, aplankykite mūsų pradžią «vieta», be oficialaus kanalo Telegram daugiau naujienų, mokymo programų ir Linux naujinimų. Vakarai grupė, norėdami gauti daugiau informacijos šios dienos tema.