Ubaguzi na upendeleo katika matokeo ya Ujasusi wa Artificial
Hadi sasa mwaka huu, tumetengeneza baadhi machapisho yanayohusiana na Artificial Intelligence, uhusiano wake na Programu Huria na Chanzo Huria, na jinsi tunavyoweza kuzitumia kwenye yetu mifumo ya uendeshaji ya bure na wazi kulingana na GNU/Linux. Kwa hiyo, leo tutashughulikia mada nyingine ya kuvutia kuhusu wao.
Na hii ni, juu ya uwezekano wa kupata "chuki na upendeleo" katika matokeo ya Usanifu wa Artificial. Kwa kuwa, ingawa AI kawaida ni muhimu sana, shukrani kwa ukweli kwamba wanaweza kutoa matokeo sahihi sana, haya yanaweza kuwa na upendeleo wa kiitikadi wa kibinadamu, ikiwa tahadhari au hatua zinazohitajika hazitachukuliwa.
Merlin na Translaite: Zana 2 za kutumia ChatGPT kwenye Linux
Lakini, kabla ya kuanza chapisho hili kuhusu uwezekano wa pata "upendeleo na upendeleo" katika matokeo ya AI, tunapendekeza kwamba uchunguze chapisho la awali lililohusiana na sawa:
Index
Upendeleo na upendeleo: zinaweza kutokea katika matokeo ya AI?
Juu ya chuki na upendeleo katika matokeo ya AI
Binafsi, hivi majuzi nimejaribu na kupendekeza chache zana za akili za bandia, ambayo kwa hakika nyingi zinategemea matumizi ya ChatBot inayoitwa OpenAI ChatGPT. Na sijapata shida yoyote kubwa na matokeo mabaya, yasiyo sahihi, ya uongo, au yasiyofaa au ya kuudhi. Hata hivyo, kwa muda mfupi haya yamekuwa hewani, wengi wetu hakika tumesoma kuhusu hali zisizofurahi na hata zisizokubalika, kuhusu matokeo yanayotokana nao.
Kwa mfano, a kesi ya hivi karibuni ya matokeo yenye makosa au yasiyo sahihi Ilikuwa ya hivi majuzi kutoka kwa ChatBot Bard ya Google. Wakati, kesi ya zamani ya matokeo yasiyofurahisha au ya kukera Ilikuwa, wakati Microsoft ilizindua Tay, chatbot ya akili ya bandia, kwenye jukwaa la mitandao ya kijamii la Twitter, ambalo, baada ya saa 16 za kazi, chatbot ilichapisha maelfu ya tweets, ambayo mwishowe ikawa wazi ya ubaguzi wa rangi, chuki dhidi ya Semiti.
Hata hivyo, nimeona kwenye mtandao, si matokeo ya kirafiki au ya kupendeza, hasa wakati picha zinapotolewa kuhusu makundi ya watu au watu maalum. Kwa hiyo, nadhani hivyo chuki na upendeleo wa kibinadamu pia unaweza kuwepo katika programu ya AI. Na kwamba labda hii inaweza kutokea wakati data inayotumiwa kutoa mafunzo kwa programu ya AI inaegemea upande wowote, au wakati programu imeundwa kwa kuzingatia seti fulani ya maadili au imani za vikundi fulani.
Kwa kuwa, mara nyingi, katika hatua zake mbalimbali za maendeleo, Kawaida huundwa kwa kutumia data nyingi kutoka kwa kikundi fulani cha idadi ya watu au kushinda wengine, au kwa vigezo ili kuepuka kuathiri vikundi vya mamlaka au kupendelea makundi muhimu ya jamii.
Hatua zinazowezekana za kuizuia
Ili kuzuia ubaguzi na upendeleo katika programu ya AI, lazima daima zichukuliwe na watengenezaji wake, hatua kama vile:
- Hakikisha kwamba data inayotumika kufunza programu ya AI inawakilisha idadi ya watu ambayo itatumiwa, na kwamba maadili au imani zilizopachikwa kwenye programu zinafaa kwa madhumuni.
- Tekeleza hatua za utofauti, ujumuishi na haki (DIF) ili kusaidia kupunguza upendeleo katika programu ya AI. Kwa namna ambayo haibagui watu au makundi fulani.
Wakati, Watumiaji wa AI wanapaswa kuwa kama kanuni ya msingi:
- Kuwa mwangalifu wakati wa kufanya maamuzi kulingana na programu ya AI, au wakati wa kuunda kazi, bidhaa, bidhaa na huduma kwa matokeo yake.
- Daima, wanapaswa kuzingatia uwezekano wa chuki na upendeleo wa AI, na kwa makosa na usahihi katika data inayotolewa, kabla ya kufanya uamuzi kuhusu matumizi yake.
Muhtasari
Kwa muhtasari, mashirika na watu binafsi wanapaswa kujitahidi kujijulisha kuhusu uwezekano wa "upendeleo na upendeleo" wa programu ya AI na jinsi ya kuepuka. Na watengenezaji hufanya kila wawezalo ili kuiepuka, ili kuhakikisha kwamba Programu ya AI inatumiwa kwa kuwajibika na kwa haki.
Pia, kumbuka, tembelea mwanzo wa yetu «tovuti», pamoja na chaneli rasmi ya telegram kwa habari zaidi, mafunzo na masasisho ya Linux. Magharibi kundi, kwa habari zaidi juu ya mada ya leo.
Kuwa wa kwanza kutoa maoni