Mga pagkiling at pagkiling sa mga resulta ng Artipisyal na Katalinuhan

Mga pagkiling at pagkiling sa mga resulta ng Artipisyal na Katalinuhan

Mga pagkiling at pagkiling sa mga resulta ng Artipisyal na Katalinuhan

Sa ngayon sa taong ito, nakagawa kami ng ilan mga post na may kaugnayan sa Artificial Intelligence, ang kaugnayan nito sa Libreng Software at Open Source, at kung paano namin magagamit ang mga ito sa aming libre at bukas na mga operating system batay sa GNU/Linux. Samakatuwid, ngayon ay tatalakayin natin ang isa pang kawili-wiling paksa tungkol sa kanila.

At ito ay, tungkol sa posibilidad ng makakuha ng «mga prejudices at biases» sa mga resulta ng Artificial Intelligence. Dahil, bagama't ang AI ay kadalasang lubhang kapaki-pakinabang, salamat sa katotohanang makakapagdulot sila ng napakatumpak na mga resulta, ang mga ito ay maaaring maglaman ng mga pagkiling sa ideolohiya ng tao, kung ang mga kinakailangang pag-iingat o hakbang ay hindi gagawin.

Merlin at Translaite: 2 tool para magamit ang ChatGPT sa Linux

Merlin at Translaite: 2 tool para magamit ang ChatGPT sa Linux

Ngunit, bago simulan ang post na ito tungkol sa posibilidad ng makakuha ng "bias at bias" sa mga resulta ng AI, inirerekomenda namin na tuklasin mo ang nakaraang nauugnay na post na may parehong:

Merlin at Translaite: 2 tool para magamit ang ChatGPT sa Linux
Kaugnay na artikulo:
Merlin at Translaite: 2 tool para magamit ang ChatGPT sa Linux

Mga pagkiling at pagkiling: maaari ba itong mangyari sa mga resulta ng AI?

Mga pagkiling at pagkiling: maaari ba itong mangyari sa mga resulta ng AI?

Sa mga pagkiling at pagkiling sa mga resulta ng AI

Sa personal, kamakailan lamang ay sinubukan ko at nagrekomenda ng ilan mga kasangkapan sa artificial intelligence, na tiyak na marami ang nakabatay sa paggamit ng ChatBot na tinatawag OpenAI ChatGPT. At wala akong anumang malalaking problema mali, hindi tumpak, mali, o hindi naaangkop o nakakasakit na mga resulta. Gayunpaman, sa maikling panahon na ang mga ito ay nasa ere, marami sa atin ang tiyak na nakabasa tungkol sa mga hindi kasiya-siya at kahit na hindi katanggap-tanggap na mga sitwasyon, tungkol sa mga resulta na nabuo ng mga ito.

Halimbawa, isang kamakailang kaso ng mali o hindi tumpak na mga resulta Ito ang kamakailang mula sa ChatBot Bard ng Google. habang, isang lumang kaso ng hindi kasiya-siya o nakakasakit na mga resulta Ito ay, nang ilunsad ng Microsoft si Tay, isang artificial intelligence chatbot, sa social networking platform na Twitter, na, pagkatapos ng 16 na oras ng operasyon, ang chatbot ay nag-publish ng libu-libong tweet, na sa huli ay naging lantarang rasista, misogynistic at anti-Semitiko.

Gayunpaman, napansin ko sa Internet, hindi palakaibigan o kaaya-ayang mga resulta, lalo na kapag ang mga larawan ay nabuo tungkol sa mga grupo ng mga tao o mga partikular na tao. Samakatuwid, iniisip ko iyon Ang pagkiling at pagkiling ng tao ay maaari ding naroroon sa AI software. At marahil ito ay maaaring mangyari kapag ang data na ginamit upang sanayin ang AI software ay may kinikilingan, o kapag ang software ay dinisenyo na may partikular na hanay ng mga halaga o paniniwala ng ilang mga grupo sa isip.

Dahil, maraming beses, sa iba't ibang yugto ng pag-unlad nito, Karaniwang idinisenyo ang mga ito gamit ang karamihang data mula sa ilang demograpikong pangkat o nananaig sa iba, o may mga parameter upang maiwasang maapektuhan ang mga grupo ng kapangyarihan o pabor sa mahahalagang grupo ng lipunan.

Mga posibleng hakbang para maiwasan ito

Mga posibleng hakbang para maiwasan ito

Upang maiwasan ang pagkiling at pagkiling sa AI software, ay dapat palaging gawin ng mga developer nito, mga hakbang tulad ng:

  1. Tiyakin na ang data na ginamit upang sanayin ang AI software ay kumakatawan sa populasyon kung saan ito gagamitin, at ang mga halaga o paniniwalang naka-embed sa software ay akma para sa layunin.
  2. Magpatupad ng mga hakbang sa diversity, inclusion and fairness (DIF) para makatulong na mabawasan ang bias sa AI software. Sa paraang hindi ito nagtatangi sa ilang tao o grupo.

Habang, Ang mga gumagamit ng AI ay dapat magkaroon bilang pangunahing panuntunan:

  1. Mag-ingat kapag gumagawa ng mga desisyon batay sa AI software, o kapag gumagawa ng mga trabaho, produkto, produkto, at serbisyo kasama ang mga resulta nito.
  2. Laging, dapat nilang isaalang-alang ang potensyal para sa pagkiling at pagkiling ng AI, at para sa mga error at kamalian sa inaalok na data, bago gumawa ng desisyon tungkol sa paggamit nito.
ChatGPT sa Linux: Mga Kliyente sa Desktop at Mga Web Browser
Kaugnay na artikulo:
ChatGPT sa Linux: Mga Kliyente sa Desktop at Mga Web Browser

Abstract na banner para sa post

Buod

Sa buod, ang mga organisasyon at indibidwal ay dapat magsikap na ipaalam sa kanilang sarili ang tungkol sa ang potensyal para sa "bias at bias" ng AI software at kung paano ito maiiwasan. At ginagawa ng mga developer ang lahat ng kanilang makakaya upang maiwasan ito, upang matiyak na ang Ang AI software ay ginagamit nang responsable at patas.

Gayundin, tandaan, bisitahin ang simula ng aming «WebSite», bilang karagdagan sa opisyal na channel ng Telegrama para sa higit pang balita, mga tutorial at mga update sa Linux. Kanluran pangkat, para sa karagdagang impormasyon sa paksa ngayon.


Iwanan ang iyong puna

Ang iyong email address ay hindi nai-publish. Mga kinakailangang patlang ay minarkahan ng *

*

*

  1. Responsable para sa data: Miguel Ángel Gatón
  2. Layunin ng data: Kontrolin ang SPAM, pamamahala ng komento.
  3. Legitimation: Ang iyong pahintulot
  4. Komunikasyon ng data: Ang data ay hindi maiparating sa mga third party maliban sa ligal na obligasyon.
  5. Imbakan ng data: Ang database na naka-host ng Occentus Networks (EU)
  6. Mga Karapatan: Sa anumang oras maaari mong limitahan, mabawi at tanggalin ang iyong impormasyon.