Prejudicis i biaixos en els resultats de les Intel·ligències Artificials

Prejudicis i biaixos en els resultats de les Intel·ligències Artificials

Prejudicis i biaixos en els resultats de les Intel·ligències Artificials

Durant aquest any, hem realitzat uns posts relacionats amb les Intel·ligències Artificials, la seva relació amb el Programari Lliure i el Codi Obert, i de com podem fer-les servir sobre els nostres sistemes operatius lliures i oberts basats en GNU/Linux. Per això, avui abordarem un altre tema interessant sobre aquestes.

I aquest és, sobre la possibilitat de obtenir «prejudicis i biaixos» en els resultats de les Intel·ligències Artificials. Ja que, si bé IA solen ser molt útils, gràcies al fet que poden produir resultats molt precisos, aquests poden arribar a contenir biaixos ideològics humans, si no es prenen les degudes precaucions o mesures necessàries.

Merlin i Translaite: 2 eines per utilitzar ChatGPT sobre Linux

Merlin i Translaite: 2 eines per utilitzar ChatGPT sobre Linux

Però, abans d'iniciar aquest post sobre la possibilitat de obtenir «prejudicis i biaixos» als resultats de les IA, els recomanem que després explorin la anterior publicació relacionada amb les mateixes:

Merlin i Translaite: 2 eines per utilitzar ChatGPT sobre Linux
Article relacionat:
Merlin i Translaite: 2 eines per utilitzar ChatGPT sobre Linux

Prejudicis i biaixos: Poden donar-se als resultats de les IA?

Prejudicis i biaixos: Poden donar-se als resultats de les IA?

Sobre els prejudicis i biaixos en els resultats de les IA

Personalment, darrerament n'he provat i recomanat unes quantes eines d'Intel·ligència Artificial, les quals molt segurament moltes estan basades en l'ús del ChatBot anomenat ChatGPT d'OpenAI. I no he tingut més problemes amb resultats erronis, imprecisos, falsos o inadequats o ofensius. Tot i això, el curt temps d'aquestes a l'aire, molts segurament hem llegit sobre situacions desagradables i fins i tot inacceptables, sobre resultats generats per aquestes.

Per exemple, un cas recent de resultats erronis o imprecisos va ser el recent del ChatBot Bard de Google. Mentre que, un cas antic de resultats desagradables o ofensius va ser, quan Microsoft va llançar Tay, un chatbot d'intel·ligència artificial, a la plataforma de xarxes socials Twitter, el qual, després de 16 hores de funcionament, el chatbot va publicar milers de tweets, que al final es van tornar obertament racistes, misògins i antisemites.

Tot i això, si he notat a Internet, resultats no amigables o agradables, sobretot quan es generen imatges sobre grups de persones o persones en específic. Per això, penso que, el prejudici i els biaixos humans, també pot ser present al programari IA. I que potser, això pot donar-se o passar quan les dades utilitzades per entrenar el programari IA estan esbiaixades, o quan el programari es dissenya tenint en compte un conjunt concret de valors o creences de certs grups.

Ja que, moltes vegades, en les diverses etapes de desenvolupament, solen ser dissenyades mitjançant dades majoritàries d'algun grup demogràfic o prevalent sobre altres, o amb paràmetres per evitar afectar grups de poder o afavorir grups importants, de la societat.

Mesures possibles per evitar-ho

Mesures possibles per evitar-ho

Per evitar prejudicis i biaixos al programari IA, han de prendre's sempre per part dels seus desenvolupadors, mesures tals com:

  1. Assegurar-se que les dades emprades per entrenar el programari d'IA són representatives de la població per a la qual s'usarà, i que els valors o creences incorporats al programari són adequats per a la finalitat prevista.
  2. Implementar mesures de diversitat, inclusió i imparcialitat (DIF) per ajudar a reduir la parcialitat al programari IA. De manera que no discrimini determinades persones o grups.

Mentre que, els usuaris d'IA haurien de tenir com a norma fonamental:

  1. Actuar amb cautela en prendre decisions basades en programari d'IA, o en elaborar treballs, béns, productes i serveis amb els resultats.
  2. Sempre, han de tenir en compte el potencial de prejudicis i biaixos de les IA, i d'errors i imprecisions a les dades ofertes, abans de prendre una decisió sobre el seu ús.
ChatGPT sobre Linux: Clients d'Escriptoris i Navegadors webs
Article relacionat:
ChatGPT sobre Linux: Clients d'Escriptoris i Navegadors webs

Bàner de resum per post

Resum

En resum, les organitzacions i les persones s'han d'esforçar per informar-se sobre el potencial de «prejudicis i biaixos» del programari d'IA i com evitar-ho. I els desenvolupadors fer tot el possible per evitar-ho, per així, garantir que el programari d'IA s'utilitzi de forma responsable i justa.

A més, recorda, visitar l'inici del nostre «lloc web», a més del canal oficial de telegram per a més notícies, tutorials i novetats linuxeres. O aquest grup, per a més informació sobre el tema d'avui.


Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.