Предразсъдъци и пристрастия в резултатите от изкуствения интелект

Предразсъдъци и пристрастия в резултатите от изкуствения интелект

Предразсъдъци и пристрастия в резултатите от изкуствения интелект

Досега тази година сме направили някои публикации, свързани с изкуствения интелект, връзката му със свободния софтуер и отворения код и как можем да ги използваме на нашите безплатни и отворени операционни системи, базирани на GNU/Linux. Затова днес ще разгледаме още една интересна тема за тях.

И това е за възможността за получавате „предразсъдъци и пристрастия“ в резултатите от изкуствения интелект. Тъй като, въпреки че AI обикновено е много полезен, благодарение на факта, че те могат да произвеждат много точни резултати, те могат да съдържат човешки идеологически пристрастия, ако не се вземат необходимите предпазни мерки или мерки.

Merlin и Translaite: 2 инструмента за използване на ChatGPT на Linux

Merlin и Translaite: 2 инструмента за използване на ChatGPT на Linux

Но преди да започнете тази публикация за възможността за получавате „пристрастия и пристрастия“ в резултатите от AI, препоръчваме ви след това да проучите предишна свързана публикация със същото:

Merlin и Translaite: 2 инструмента за използване на ChatGPT на Linux
Свързана статия:
Merlin и Translaite: 2 инструмента за използване на ChatGPT на Linux

Предразсъдъци и пристрастия: могат ли да се появят в резултатите от AI?

Предразсъдъци и пристрастия: могат ли да се появят в резултатите от AI?

За предразсъдъците и пристрастията в резултатите от AI

Лично аз напоследък пробвах и препоръчах няколко инструменти за изкуствен интелект, които със сигурност много се основават на използването на наречения ChatBot OpenAI ChatGPT. И не съм имал големи проблеми с грешни, неточни, неверни или неподходящи или обидни резултати. Но за краткото време, откакто те са в ефир, много от нас със сигурност са чели за неприятни и дори неприемливи ситуации, за резултата от тях.

Например: a скорошен случай на грешни или неточни резултати Беше скорошният от ChatBot Bard на Google. Докато, стар случай с неприятни или обидни резултати беше, когато Microsoft пусна Tay, чатбот с изкуствен интелект, в платформата за социални мрежи Twitter, която след 16 часа работа чатботът публикува хиляди туитове, които в крайна сметка станаха открито расистки, женомразки и антисемитски.

Въпреки това забелязах в интернет не приятелски или приятни резултати, особено когато се генерират изображения за групи хора или конкретни хора. Затова мисля, че предразсъдъците и човешките пристрастия също могат да присъстват в AI софтуера. И че може би това може да се случи, когато данните, използвани за обучение на AI софтуера, са предубедени или когато софтуерът е проектиран с конкретен набор от ценности или вярвания на определени групи.

Тъй като много пъти, в различните си етапи на развитие, Те обикновено се проектират с помощта на мнозинство от данни от някаква демографска група или преобладаващи над други, или с параметри за избягване на засягане на властови групи или фаворизиране на важни групи от обществото.

Възможни мерки за избягване

Възможни мерки за избягване

За да се избегнат предразсъдъците и пристрастията в AI софтуера, винаги трябва да се предприемат от неговите разработчици, мерки като:

  1. Уверете се, че данните, използвани за обучение на AI софтуера, са представителни за населението, за което ще се използва, и че ценностите или вярванията, вградени в софтуера, са подходящи за целта.
  2. Въведете мерки за разнообразие, включване и справедливост (DIF), за да помогнете за намаляване на пристрастията в софтуера за изкуствен интелект. По такъв начин, че да не дискриминира определени хора или групи.

Докато, Потребителите на AI трябва да имат като основно правило:

  1. Проявяване на повишено внимание при вземане на решения въз основа на AI софтуер или при създаване на работни места, стоки, продукти и услуги с неговите резултати.
  2. Винаги трябва да вземат предвид потенциала за предразсъдъци и пристрастия на AI, както и за грешки и неточности в предлаганите данни, преди да вземат решение за използването му.
ChatGPT на Linux: Настолни клиенти и уеб браузъри
Свързана статия:
ChatGPT на Linux: Настолни клиенти и уеб браузъри

Абстрактен банер за публикация

Обобщение

В обобщение, организациите и отделните лица трябва да се стремят да се информират за потенциалът за „пристрастия и пристрастия“ на софтуера за изкуствен интелект и как да го избегнем. И разработчиците правят всичко възможно, за да го избегнат, за да гарантират, че AI софтуерът се използва отговорно и справедливо.

Освен това не забравяйте, посетете началото на нашия «място», в допълнение към официалния канал на Telegram за повече новини, уроци и актуализации на Linux. запад група, за повече информация по днешната тема.


Оставете вашия коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *

*

*

  1. Отговорен за данните: Мигел Анхел Гатон
  2. Предназначение на данните: Контрол на СПАМ, управление на коментари.
  3. Легитимация: Вашето съгласие
  4. Съобщаване на данните: Данните няма да бъдат съобщени на трети страни, освен по законово задължение.
  5. Съхранение на данни: База данни, хоствана от Occentus Networks (ЕС)
  6. Права: По всяко време можете да ограничите, възстановите и изтриете информацията си.