Fordommer og skjevheter i resultatene av kunstig intelligens

Fordommer og skjevheter i resultatene av kunstig intelligens

Fordommer og skjevheter i resultatene av kunstig intelligens

Så langt i år har vi laget noen innlegg relatert til kunstig intelligens, dets forhold til fri programvare og åpen kildekode, og hvordan vi kan bruke dem på vår gratis og åpne operativsystemer basert på GNU/Linux. Derfor vil vi i dag ta opp et annet interessant emne om dem.

Og dette handler om muligheten for få «fordommer og skjevheter» i resultatene av kunstig intelligens. Siden, selv om AI vanligvis er veldig nyttige, takket være det faktum at de kan gi svært presise resultater, kan disse inneholde menneskelige ideologiske skjevheter, hvis de nødvendige forholdsregler eller tiltak ikke tas.

Merlin og Translaite: 2 verktøy for å bruke ChatGPT på Linux

Merlin og Translaite: 2 verktøy for å bruke ChatGPT på Linux

Men, før du starter dette innlegget om muligheten for få "bias and bias" i AI-resultater, anbefaler vi at du deretter utforsker forrige relaterte innlegg med det samme:

Merlin og Translaite: 2 verktøy for å bruke ChatGPT på Linux
Relatert artikkel:
Merlin og Translaite: 2 verktøy for å bruke ChatGPT på Linux

Fordommer og skjevheter: kan de oppstå i resultatene av AI?

Fordommer og skjevheter: kan de oppstå i resultatene av AI?

Om fordommer og skjevheter i resultatene av AI

Personlig har jeg i det siste prøvd og anbefalt noen verktøy for kunstig intelligens, som veldig sikkert mange er basert på bruken av ChatBot kalt OpenAI ChatGPT. Og jeg har ikke hatt noen store problemer med feilaktige, unøyaktige, falske eller upassende eller støtende resultater. Men i løpet av den korte tiden disse har vært på lufta, har mange av oss sikkert lest om ubehagelige og til og med uakseptable situasjoner, om resultatene generert av dem.

For eksempel a nylig tilfelle av feilaktige eller unøyaktige resultater Det var den siste fra Googles ChatBot Bard. Samtidig som, et gammelt tilfelle av ubehagelige eller støtende resultater Det var da Microsoft lanserte Tay, en kunstig intelligens chatbot, på den sosiale nettverksplattformen Twitter, som etter 16 timers drift publiserte chatboten tusenvis av tweets, som til slutt ble åpenlyst rasistiske, kvinnefiendtlige og antisemittiske.

Imidlertid har jeg lagt merke til på Internett, ikke vennlige eller hyggelige resultater, spesielt når det genereres bilder om grupper av mennesker eller bestemte personer. Derfor tror jeg det fordommer og menneskelige skjevheter kan også være tilstede i AI-programvare. Og at dette kanskje kan skje når dataene som brukes til å trene opp AI-programvaren er partiske, eller når programvaren er designet med et bestemt sett med verdier eller tro fra bestemte grupper i tankene.

Siden mange ganger, i sine ulike utviklingsstadier, De er vanligvis utformet ved å bruke majoritetsdata fra en eller annen demografisk gruppe eller råder over andre, eller med parametere for å unngå å påvirke maktgrupper eller favorisere viktige grupper i samfunnet.

Mulige tiltak for å unngå det

Mulige tiltak for å unngå det

For å unngå fordommer og skjevheter i AI-programvare, må alltid tas av utviklerne, tiltak som:

  1. Sørg for at dataene som brukes til å trene AI-programvaren er representative for befolkningen den skal brukes til, og at verdiene eller troene som er innebygd i programvaren er egnet for formålet.
  2. Implementer tiltak for mangfold, inkludering og rettferdighet (DIF) for å redusere skjevheter i AI-programvare. På en slik måte at det ikke diskriminerer enkelte personer eller grupper.

Samtidig som, AI-brukere bør ha som en grunnleggende regel:

  1. Vær forsiktig når du tar beslutninger basert på AI-programvare, eller når du lager jobber, varer, produkter og tjenester med resultatene.
  2. De bør alltid ta hensyn til potensialet for fordommer og skjevheter ved AI, og for feil og unøyaktigheter i dataene som tilbys, før de tar en beslutning om bruken.
ChatGPT på Linux: Desktop-klienter og nettlesere
Relatert artikkel:
ChatGPT på Linux: Desktop-klienter og nettlesere

Abstrakt banner for innlegg

Oppsummering

Oppsummert bør organisasjoner og enkeltpersoner bestrebe seg på å informere seg om potensialet for «bias and bias» i AI-programvare og hvordan man unngår det. Og utviklerne gjør alt de kan for å unngå det, for å sikre at AI-programvare brukes ansvarlig og rettferdig.

Husk også, besøk begynnelsen av vår «området», i tillegg til den offisielle kanalen til Telegram for flere nyheter, opplæringsprogrammer og Linux-oppdateringer. Vest gruppe, for mer informasjon om dagens tema.


Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.