Fördomar och fördomar i resultaten av artificiell intelligens

Fördomar och fördomar i resultaten av artificiell intelligens

Fördomar och fördomar i resultaten av artificiell intelligens

Hittills i år har vi gjort några inlägg relaterade till artificiell intelligens, dess relation till fri programvara och öppen källkod, och hur vi kan använda dem på vår fria och öppna operativsystem baserade på GNU/Linux. Därför kommer vi idag att ta upp ett annat intressant ämne om dem.

Och det här handlar om möjligheten få «fördomar och fördomar» i resultaten av artificiell intelligens. Eftersom, även om AI vanligtvis är mycket användbara, kan dessa, tack vare det faktum att de kan producera mycket exakta resultat, innehålla mänskliga ideologiska fördomar, om de nödvändiga försiktighetsåtgärderna eller åtgärderna inte vidtas.

Merlin och Translaite: 2 verktyg för att använda ChatGPT på Linux

Merlin och Translaite: 2 verktyg för att använda ChatGPT på Linux

Men, innan du börjar detta inlägg om möjligheten att få "bias and bias" i AI-resultatrekommenderar vi att du sedan utforskar tidigare relaterat inlägg med samma:

Merlin och Translaite: 2 verktyg för att använda ChatGPT på Linux
Relaterad artikel:
Merlin och Translaite: 2 verktyg för att använda ChatGPT på Linux

Fördomar och fördomar: kan de uppstå i resultaten av AI?

Fördomar och fördomar: kan de uppstå i resultaten av AI?

Om fördomar och fördomar i resultaten av AI

Personligen har jag på sistone försökt och rekommenderat några verktyg för artificiell intelligens, som mycket säkert många är baserade på användningen av ChatBot som kallas OpenAI ChatGPT. Och jag har inte haft några större problem med felaktiga, felaktiga, falska eller olämpliga eller stötande resultat. Men under den korta tid som dessa har varit i luften har många av oss säkert läst om obehagliga och till och med oacceptabla situationer, om resultaten som genereras av dem.

Till exempel a senaste fall av felaktiga eller felaktiga resultat Det var den senaste från Googles ChatBot Bard. Medan, ett gammalt fall av obehagliga eller stötande resultat Det var när Microsoft lanserade Tay, en chatbot för artificiell intelligens, på den sociala nätverksplattformen Twitter, som efter 16 timmars drift publicerade tusentals tweets, som i slutändan blev öppet rasistiska, kvinnofientliga och antisemitiska.

Jag har dock märkt på Internet, inga vänliga eller trevliga resultat, speciellt när bilder genereras om grupper av människor eller specifika personer. Därför tycker jag det fördomar och mänskliga fördomar kan också finnas i AI-programvara. Och att detta kanske kan hända när data som används för att träna AI-mjukvaran är partisk, eller när programvaran är designad med en viss uppsättning värderingar eller övertygelser från vissa grupper i åtanke.

Eftersom många gånger, i dess olika utvecklingsstadier, De är vanligtvis utformade med hjälp av majoritetsdata från någon demografisk grupp eller råder över andra, eller med parametrar för att undvika att påverka maktgrupper eller gynna viktiga grupper i samhället.

Möjliga åtgärder för att undvika det

Möjliga åtgärder för att undvika det

För att undvika fördomar och partiskhet i AI-programvara, måste alltid vidtas av dess utvecklare, åtgärder som:

  1. Se till att de data som används för att träna AI-mjukvaran är representativa för befolkningen för vilken den kommer att användas, och att de värden eller övertygelser som är inbäddade i programvaran är lämpliga för syftet.
  2. Implementera åtgärder för mångfald, inkludering och rättvisa (DIF) för att minska fördomar i AI-programvara. På ett sådant sätt att det inte diskriminerar vissa personer eller grupper.

Medan, AI-användare bör ha som en grundläggande regel:

  1. Var försiktig när du fattar beslut baserat på AI-programvara, eller när du skapar jobb, varor, produkter och tjänster med dess resultat.
  2. De bör alltid ta hänsyn till potentialen för fördomar och partiskhet hos AI, och för fel och felaktigheter i den information som erbjuds, innan de fattar ett beslut om dess användning.
ChatGPT på Linux: Desktop-klienter och webbläsare
Relaterad artikel:
ChatGPT på Linux: Desktop-klienter och webbläsare

Abstrakt banner för inlägg

Sammanfattning

Sammanfattningsvis bör organisationer och individer sträva efter att informera sig om potentialen för "bias and bias" hos AI-programvara och hur man undviker det. Och utvecklarna gör allt de kan för att undvika det, för att säkerställa att AI-programvara används ansvarsfullt och rättvist.

Kom också ihåg att besöka början av vår «plats», förutom den officiella kanalen för Telegram för fler nyheter, tutorials och Linux-uppdateringar. Väst grupp, för mer information om dagens ämne.


Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för uppgifterna: Miguel Ángel Gatón
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.