Досега тази година сме направили някои публикации, свързани с изкуствения интелект, връзката му със свободния софтуер и отворения код и как можем да ги използваме на нашите безплатни и отворени операционни системи, базирани на GNU/Linux. Затова днес ще разгледаме още една интересна тема за тях.
И това е за възможността за получавате „предразсъдъци и пристрастия“ в резултатите от изкуствения интелект. Тъй като, въпреки че AI обикновено е много полезен, благодарение на факта, че те могат да произвеждат много точни резултати, те могат да съдържат човешки идеологически пристрастия, ако не се вземат необходимите предпазни мерки или мерки.
Но преди да започнете тази публикация за възможността за получавате „пристрастия и пристрастия“ в резултатите от AI, препоръчваме ви след това да проучите предишна свързана публикация със същото:
Предразсъдъци и пристрастия: могат ли да се появят в резултатите от AI?
За предразсъдъците и пристрастията в резултатите от AI
Лично аз напоследък пробвах и препоръчах няколко инструменти за изкуствен интелект, които със сигурност много се основават на използването на наречения ChatBot OpenAI ChatGPT. И не съм имал големи проблеми с грешни, неточни, неверни или неподходящи или обидни резултати. Но за краткото време, откакто те са в ефир, много от нас със сигурност са чели за неприятни и дори неприемливи ситуации, за резултата от тях.
Например: a скорошен случай на грешни или неточни резултати Беше скорошният от ChatBot Bard на Google. Докато, стар случай с неприятни или обидни резултати беше, когато Microsoft пусна Tay, чатбот с изкуствен интелект, в платформата за социални мрежи Twitter, която след 16 часа работа чатботът публикува хиляди туитове, които в крайна сметка станаха открито расистки, женомразки и антисемитски.
Въпреки това забелязах в интернет не приятелски или приятни резултати, особено когато се генерират изображения за групи хора или конкретни хора. Затова мисля, че предразсъдъците и човешките пристрастия също могат да присъстват в AI софтуера. И че може би това може да се случи, когато данните, използвани за обучение на AI софтуера, са предубедени или когато софтуерът е проектиран с конкретен набор от ценности или вярвания на определени групи.
Тъй като много пъти, в различните си етапи на развитие, Те обикновено се проектират с помощта на мнозинство от данни от някаква демографска група или преобладаващи над други, или с параметри за избягване на засягане на властови групи или фаворизиране на важни групи от обществото.
Възможни мерки за избягване
За да се избегнат предразсъдъците и пристрастията в AI софтуера, винаги трябва да се предприемат от неговите разработчици, мерки като:
- Уверете се, че данните, използвани за обучение на AI софтуера, са представителни за населението, за което ще се използва, и че ценностите или вярванията, вградени в софтуера, са подходящи за целта.
- Въведете мерки за разнообразие, включване и справедливост (DIF), за да помогнете за намаляване на пристрастията в софтуера за изкуствен интелект. По такъв начин, че да не дискриминира определени хора или групи.
Докато, Потребителите на AI трябва да имат като основно правило:
- Проявяване на повишено внимание при вземане на решения въз основа на AI софтуер или при създаване на работни места, стоки, продукти и услуги с неговите резултати.
- Винаги трябва да вземат предвид потенциала за предразсъдъци и пристрастия на AI, както и за грешки и неточности в предлаганите данни, преди да вземат решение за използването му.
Обобщение
В обобщение, организациите и отделните лица трябва да се стремят да се информират за потенциалът за „пристрастия и пристрастия“ на софтуера за изкуствен интелект и как да го избегнем. И разработчиците правят всичко възможно, за да го избегнат, за да гарантират, че AI софтуерът се използва отговорно и справедливо.
Освен това не забравяйте, посетете началото на нашия «място», в допълнение към официалния канал на Telegram за повече новини, уроци и актуализации на Linux. запад група, за повече информация по днешната тема.