Fordomme og skævheder i resultaterne af kunstig intelligens

Fordomme og skævheder i resultaterne af kunstig intelligens

Fordomme og skævheder i resultaterne af kunstig intelligens

Indtil videre i år har vi lavet nogle indlæg relateret til kunstig intelligens, dets forhold til Fri Software og Open Source, og hvordan vi kan bruge dem på vores gratis og åbne operativsystemer baseret på GNU/Linux. Derfor vil vi i dag behandle et andet interessant emne om dem.

Og det handler om muligheden for opnå «fordomme og skævheder» i resultaterne af kunstig intelligens. Da selv om AI normalt er meget nyttige, takket være det faktum, at de kan producere meget præcise resultater, kan disse indeholde menneskelige ideologiske skævheder, hvis de nødvendige forholdsregler eller foranstaltninger ikke tages.

Merlin og Translaite: 2 værktøjer til at bruge ChatGPT på Linux

Merlin og Translaite: 2 værktøjer til at bruge ChatGPT på Linux

Men, før du starter dette indlæg om muligheden for få "bias and bias" i AI-resultater, anbefaler vi, at du derefter udforsker tidligere relateret indlæg med det samme:

Merlin og Translaite: 2 værktøjer til at bruge ChatGPT på Linux
relateret artikel:
Merlin og Translaite: 2 værktøjer til at bruge ChatGPT på Linux

Fordomme og skævheder: kan de forekomme i resultaterne af AI?

Fordomme og skævheder: kan de forekomme i resultaterne af AI?

Om fordomme og skævheder i resultaterne af AI

Personligt har jeg på det seneste prøvet og anbefalet et par stykker kunstig intelligens værktøjer, som meget sikkert mange er baseret på brugen af ​​den kaldede ChatBot OpenAI ChatGPT. Og det har jeg ikke haft de store problemer med fejlagtige, unøjagtige, falske eller upassende eller stødende resultater. Men i løbet af den korte tid, disse har været i luften, har mange af os helt sikkert læst om ubehagelige og endda uacceptable situationer, om resultaterne af dem.

For eksempel a nyligt tilfælde af fejlagtige eller unøjagtige resultater Det var den seneste fra Googles ChatBot Bard. Mens, et gammelt tilfælde af ubehagelige eller stødende resultater Det var, da Microsoft lancerede Tay, en kunstig intelligens chatbot, på den sociale netværksplatform Twitter, som efter 16 timers drift udgav tusindvis af tweets, som i sidste ende blev åbenlyst racistiske, kvindehadende og antisemitiske.

Jeg har dog bemærket på internettet, at der ikke er venlige eller behagelige resultater, især når der genereres billeder om grupper af mennesker eller specifikke personer. Derfor synes jeg det fordomme og menneskelige skævheder kan også være til stede i AI-software. Og at det måske kan ske, når de data, der bruges til at træne AI-softwaren, er forudindtaget, eller når softwaren er designet med et bestemt sæt værdier eller overbevisninger fra bestemte grupper i tankerne.

Siden mange gange i dens forskellige udviklingsstadier, De er normalt designet ved hjælp af flertalsdata fra en eller anden demografisk gruppe eller at sejre over andre, eller med parametre for at undgå at påvirke magtgrupper eller begunstige vigtige samfundsgrupper.

Mulige foranstaltninger for at undgå det

Mulige foranstaltninger for at undgå det

For at undgå fordomme og bias i AI-software, skal altid træffes af sine udviklere, foranstaltninger som:

  1. Sørg for, at de data, der bruges til at træne AI-softwaren, er repræsentative for den befolkning, den vil blive brugt til, og at de værdier eller overbevisninger, der er indlejret i softwaren, er egnede til formålet.
  2. Implementer foranstaltninger for mangfoldighed, inklusion og retfærdighed (DIF) for at hjælpe med at reducere skævhed i AI-software. På en sådan måde, at det ikke diskriminerer visse personer eller grupper.

Mens, AI-brugere bør have som en grundlæggende regel:

  1. Udvis forsigtighed, når du træffer beslutninger baseret på AI-software, eller når du udarbejder job, varer, produkter og tjenester med dets resultater.
  2. De bør altid tage højde for potentialet for fordomme og skævhed ved AI og for fejl og unøjagtigheder i de tilbudte data, før de træffer en beslutning om brugen af ​​dem.
ChatGPT på Linux: Desktop-klienter og webbrowsere
relateret artikel:
ChatGPT på Linux: Desktop-klienter og webbrowsere

Abstrakt banner til indlæg

Resumé

Sammenfattende bør organisationer og enkeltpersoner stræbe efter at informere sig selv om potentialet for "bias og bias" i AI-software, og hvordan man undgår det. Og udviklerne gør alt, hvad de kan for at undgå det, for at sikre, at AI-software bruges ansvarligt og retfærdigt.

Husk også at besøge begyndelsen af ​​vores «hjemmeside», ud over den officielle kanal af Telegram for flere nyheder, tutorials og Linux-opdateringer. Vest gruppe, for mere information om dagens emne.


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.