Jak dotąd w tym roku zrobiliśmy kilka posty związane ze sztuczną inteligencją, jego związek z Wolnym Oprogramowaniem i Otwartym Oprogramowaniem oraz sposób, w jaki możemy z nich korzystać na naszych wolne i otwarte systemy operacyjne oparte na GNU/Linux. Dlatego dzisiaj zajmiemy się innym interesującym tematem na ich temat.
A chodzi o możliwość uzyskać „uprzedzenia i uprzedzenia” w wynikach sztucznej inteligencji. Ponieważ, chociaż sztuczna inteligencja jest zwykle bardzo użyteczna, dzięki temu, że może dawać bardzo precyzyjne wyniki, mogą one zawierać ludzkie uprzedzenia ideologiczne, jeśli nie zostaną podjęte niezbędne środki ostrożności lub środki.
Ale przed rozpoczęciem tego postu o możliwości uzyskać „stronniczość i stronniczość” w wynikach AI, zalecamy następnie zbadanie poprzedni powiązany post z tym samym:
Uprzedzenia i uprzedzenia: czy mogą wystąpić w wynikach AI?
O uprzedzeniach i uprzedzeniach w wynikach AI
Osobiście ostatnio wypróbowałem i poleciłem kilka narzędzia sztucznej inteligencji, których z pewnością wielu opiera się na wykorzystaniu ChatBota tzw Czat OpenAIGPT. I nie miałem większych problemów z błędnych, niedokładnych, fałszywych, nieodpowiednich lub obraźliwych wyników. Jednak w krótkim czasie, kiedy były one emitowane, wielu z nas na pewno czytało o nieprzyjemnych, a nawet niedopuszczalnych sytuacjach, o skutkach, jakie one generowały.
Na przykład niedawny przypadek błędnych lub niedokładnych wyników To był ostatni z Google ChatBot Bard. Chwila, stary przypadek nieprzyjemnych lub obraźliwych wyników było, gdy Microsoft uruchomił Tay, chatbota ze sztuczną inteligencją, na platformie społecznościowej Twitter, który po 16 godzinach działania chatbot opublikował tysiące tweetów, które ostatecznie stały się jawnie rasistowskie, mizoginistyczne i antysemickie.
Zauważyłem jednak w Internecie niezbyt przyjazne lub przyjemne wyniki, zwłaszcza gdy generowane są obrazy dotyczące grup osób lub konkretnych osób. Dlatego uważam, że uprzedzenia i ludzkie uprzedzenia mogą być również obecne w oprogramowaniu AI. Być może może się to zdarzyć, gdy dane wykorzystywane do szkolenia oprogramowania AI są stronnicze lub gdy oprogramowanie jest zaprojektowane z myślą o określonym zestawie wartości lub przekonaniach określonych grup.
Ponieważ wielokrotnie, na różnych etapach swojego rozwoju, Zazwyczaj są one projektowane przy użyciu większości danych z jakiejś grupy demograficznej lub dominujący nad innymi, lub z parametrami pozwalającymi uniknąć wpływu na grupy władzy lub faworyzowania ważnych grup społecznych.
Możliwe środki, aby tego uniknąć
Aby uniknąć uprzedzeń i stronniczości w oprogramowaniu AI, muszą być zawsze podejmowane przez jego twórców, środki takie jak:
- Upewnij się, że dane wykorzystywane do szkolenia oprogramowania AI są reprezentatywne dla populacji, dla której będzie używane, oraz że wartości lub przekonania osadzone w oprogramowaniu są odpowiednie do celu.
- Wdrażaj środki różnorodności, integracji i uczciwości (DIF), aby zmniejszyć stronniczość oprogramowania AI. W taki sposób, aby nie dyskryminować określonych osób lub grup.
Podczas, Użytkownicy AI powinni mieć jako podstawową zasadę:
- Zachowanie ostrożności podczas podejmowania decyzji w oparciu o oprogramowanie AI lub podczas tworzenia zadań, towarów, produktów i usług na podstawie jego wyników.
- Zawsze powinni brać pod uwagę potencjalne uprzedzenia i stronniczość sztucznej inteligencji oraz błędy i nieścisłości w oferowanych danych, zanim podejmą decyzję o ich wykorzystaniu.
streszczenie
Podsumowując, organizacje i osoby prywatne powinny dążyć do zdobywania informacji potencjał „stronniczości i stronniczości” oprogramowania AI i jak tego uniknąć. A programiści robią wszystko, co w ich mocy, aby tego uniknąć, aby zapewnić, że Oprogramowanie AI jest używane w sposób odpowiedzialny i uczciwy.
Pamiętaj też, odwiedź początek naszego «teren», oprócz oficjalnego kanału Telegram aby uzyskać więcej wiadomości, samouczków i aktualizacji Linuksa. Zachód grupa, aby uzyskać więcej informacji na dzisiejszy temat.