Uprzedzenia i uprzedzenia w wynikach sztucznej inteligencji

Uprzedzenia i uprzedzenia w wynikach sztucznej inteligencji

Uprzedzenia i uprzedzenia w wynikach sztucznej inteligencji

Jak dotąd w tym roku zrobiliśmy kilka posty związane ze sztuczną inteligencją, jego związek z Wolnym Oprogramowaniem i Otwartym Oprogramowaniem oraz sposób, w jaki możemy z nich korzystać na naszych wolne i otwarte systemy operacyjne oparte na GNU/Linux. Dlatego dzisiaj zajmiemy się innym interesującym tematem na ich temat.

A chodzi o możliwość uzyskać „uprzedzenia i uprzedzenia” w wynikach sztucznej inteligencji. Ponieważ, chociaż sztuczna inteligencja jest zwykle bardzo użyteczna, dzięki temu, że może dawać bardzo precyzyjne wyniki, mogą one zawierać ludzkie uprzedzenia ideologiczne, jeśli nie zostaną podjęte niezbędne środki ostrożności lub środki.

Merlin i Translaite: 2 narzędzia do korzystania z ChatGPT w systemie Linux

Merlin i Translaite: 2 narzędzia do korzystania z ChatGPT w systemie Linux

Ale przed rozpoczęciem tego postu o możliwości uzyskać „stronniczość i stronniczość” w wynikach AI, zalecamy następnie zbadanie poprzedni powiązany post z tym samym:

Merlin i Translaite: 2 narzędzia do korzystania z ChatGPT w systemie Linux
Podobne artykuł:
Merlin i Translaite: 2 narzędzia do korzystania z ChatGPT w systemie Linux

Uprzedzenia i uprzedzenia: czy mogą wystąpić w wynikach AI?

Uprzedzenia i uprzedzenia: czy mogą wystąpić w wynikach AI?

O uprzedzeniach i uprzedzeniach w wynikach AI

Osobiście ostatnio wypróbowałem i poleciłem kilka narzędzia sztucznej inteligencji, których z pewnością wielu opiera się na wykorzystaniu ChatBota tzw Czat OpenAIGPT. I nie miałem większych problemów z błędnych, niedokładnych, fałszywych, nieodpowiednich lub obraźliwych wyników. Jednak w krótkim czasie, kiedy były one emitowane, wielu z nas na pewno czytało o nieprzyjemnych, a nawet niedopuszczalnych sytuacjach, o skutkach, jakie one generowały.

Na przykład niedawny przypadek błędnych lub niedokładnych wyników To był ostatni z Google ChatBot Bard. Chwila, stary przypadek nieprzyjemnych lub obraźliwych wyników było, gdy Microsoft uruchomił Tay, chatbota ze sztuczną inteligencją, na platformie społecznościowej Twitter, który po 16 godzinach działania chatbot opublikował tysiące tweetów, które ostatecznie stały się jawnie rasistowskie, mizoginistyczne i antysemickie.

Zauważyłem jednak w Internecie niezbyt przyjazne lub przyjemne wyniki, zwłaszcza gdy generowane są obrazy dotyczące grup osób lub konkretnych osób. Dlatego uważam, że uprzedzenia i ludzkie uprzedzenia mogą być również obecne w oprogramowaniu AI. Być może może się to zdarzyć, gdy dane wykorzystywane do szkolenia oprogramowania AI są stronnicze lub gdy oprogramowanie jest zaprojektowane z myślą o określonym zestawie wartości lub przekonaniach określonych grup.

Ponieważ wielokrotnie, na różnych etapach swojego rozwoju, Zazwyczaj są one projektowane przy użyciu większości danych z jakiejś grupy demograficznej lub dominujący nad innymi, lub z parametrami pozwalającymi uniknąć wpływu na grupy władzy lub faworyzowania ważnych grup społecznych.

Możliwe środki, aby tego uniknąć

Możliwe środki, aby tego uniknąć

Aby uniknąć uprzedzeń i stronniczości w oprogramowaniu AI, muszą być zawsze podejmowane przez jego twórców, środki takie jak:

  1. Upewnij się, że dane wykorzystywane do szkolenia oprogramowania AI są reprezentatywne dla populacji, dla której będzie używane, oraz że wartości lub przekonania osadzone w oprogramowaniu są odpowiednie do celu.
  2. Wdrażaj środki różnorodności, integracji i uczciwości (DIF), aby zmniejszyć stronniczość oprogramowania AI. W taki sposób, aby nie dyskryminować określonych osób lub grup.

Podczas, Użytkownicy AI powinni mieć jako podstawową zasadę:

  1. Zachowanie ostrożności podczas podejmowania decyzji w oparciu o oprogramowanie AI lub podczas tworzenia zadań, towarów, produktów i usług na podstawie jego wyników.
  2. Zawsze powinni brać pod uwagę potencjalne uprzedzenia i stronniczość sztucznej inteligencji oraz błędy i nieścisłości w oferowanych danych, zanim podejmą decyzję o ich wykorzystaniu.
ChatGPT w systemie Linux: klienci komputerów stacjonarnych i przeglądarki internetowe
Podobne artykuł:
ChatGPT w systemie Linux: klienci komputerów stacjonarnych i przeglądarki internetowe

Abstrakcyjny baner na post

streszczenie

Podsumowując, organizacje i osoby prywatne powinny dążyć do zdobywania informacji potencjał „stronniczości i stronniczości” oprogramowania AI i jak tego uniknąć. A programiści robią wszystko, co w ich mocy, aby tego uniknąć, aby zapewnić, że Oprogramowanie AI jest używane w sposób odpowiedzialny i uczciwy.

Pamiętaj też, odwiedź początek naszego «teren», oprócz oficjalnego kanału Telegram aby uzyskać więcej wiadomości, samouczków i aktualizacji Linuksa. Zachód grupa, aby uzyskać więcej informacji na dzisiejszy temat.


Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: Miguel Ángel Gatón
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.