Préjugés et biais dans les résultats de l'Intelligence Artificielle

Préjugés et biais dans les résultats de l'Intelligence Artificielle

Préjugés et biais dans les résultats de l'Intelligence Artificielle

Jusqu'à présent cette année, nous avons fait quelques articles liés à l'intelligence artificielle, sa relation avec les logiciels libres et Open Source, et comment nous pouvons les utiliser sur notre systèmes d'exploitation libres et ouverts basés sur GNU/Linux. Par conséquent, nous aborderons aujourd'hui un autre sujet intéressant à leur sujet.

Et il s'agit de la possibilité de obtenir des «préjugés et biais» dans les résultats de l'Intelligence Artificielle. Car, bien que l'IA soit généralement très utile, grâce au fait qu'elle peut produire des résultats très précis, ceux-ci peuvent contenir des biais idéologiques humains, si les précautions ou mesures nécessaires ne sont pas prises.

Merlin et Translaite : 2 outils pour utiliser ChatGPT sous Linux

Merlin et Translaite : 2 outils pour utiliser ChatGPT sous Linux

Mais, avant de commencer cet article sur la possibilité de obtenir "biais et biais" dans les résultats de l'IA, nous vous recommandons d'explorer ensuite post connexe précédent avec le même:

Merlin et Translaite : 2 outils pour utiliser ChatGPT sous Linux
Article connexe:
Merlin et Translaite : 2 outils pour utiliser ChatGPT sous Linux

Préjugés et biais : peuvent-ils se produire dans les résultats de l'IA ?

Préjugés et biais : peuvent-ils se produire dans les résultats de l'IA ?

Sur les préjugés et les biais dans les résultats de l'IA

Personnellement, dernièrement, j'ai essayé et recommandé quelques outils d'intelligence artificielle, dont très sûrement beaucoup reposent sur l'utilisation du ChatBot appelé OpenAI ChatGPT. Et je n'ai pas eu de problèmes majeurs avec résultats erronés, inexacts, faux, inappropriés ou offensants. Cependant, depuis le peu de temps qu'ils ont été diffusés, beaucoup d'entre nous ont sûrement lu des informations sur des situations désagréables, voire inacceptables, sur les résultats générés par celles-ci.

Par exemple, un cas récent de résultats erronés ou inexacts C'était le dernier du ChatBot Bard de Google. Tandis que, un ancien cas de résultats désagréables ou offensants C'est lorsque Microsoft a lancé Tay, un chatbot d'intelligence artificielle, sur la plateforme de réseautage social Twitter, qu'après 16 heures de fonctionnement, le chatbot a publié des milliers de tweets, qui au final sont devenus ouvertement racistes, misogynes et antisémites.

Cependant, j'ai remarqué sur Internet des résultats peu amicaux ou agréables, en particulier lorsque des images sont générées sur des groupes de personnes ou des personnes spécifiques. Par conséquent, je pense que les préjugés et les préjugés humains peuvent également être présents dans les logiciels d'IA. Et que cela peut peut-être se produire lorsque les données utilisées pour former le logiciel d'IA sont biaisées, ou lorsque le logiciel est conçu avec un ensemble particulier de valeurs ou de croyances de certains groupes à l'esprit.

Depuis, à maintes reprises, dans ses divers stades de développement, Ils sont généralement conçus à l'aide de données majoritaires d'un certain groupe démographique ou prévalant sur les autres, ou avec des paramètres pour éviter d'affecter les groupes de pouvoir ou de favoriser des groupes importants de la société.

Mesures possibles pour l'éviter

Mesures possibles pour l'éviter

Pour éviter les préjugés et les préjugés dans les logiciels d'IA, doivent toujours être prises par ses développeurs, des mesures telles que :

  1. Assurez-vous que les données utilisées pour former le logiciel d'IA sont représentatives de la population pour laquelle il sera utilisé, et que les valeurs ou les croyances intégrées dans le logiciel sont adaptées à l'objectif.
  2. Mettre en œuvre des mesures de diversité, d'inclusion et d'équité (DIF) pour aider à réduire les biais dans les logiciels d'IA. De manière à ne pas discriminer certaines personnes ou certains groupes.

Tandis que, Les utilisateurs d'IA devraient avoir comme règle fondamentale:

  1. Faire preuve de prudence lors de la prise de décisions basées sur un logiciel d'IA, ou lors de la création d'emplois, de biens, de produits et de services avec ses résultats.
  2. Ils doivent toujours tenir compte du potentiel de préjugés et de biais de l'IA, ainsi que des erreurs et des inexactitudes dans les données proposées, avant de prendre une décision quant à son utilisation.
ChatGPT sous Linux : clients de bureau et navigateurs Web
Article connexe:
ChatGPT sous Linux : clients de bureau et navigateurs Web

Bannière abstraite pour le poste

Résumé

En résumé, les organisations et les individus devraient s'efforcer de s'informer sur le potentiel de "biais et parti pris" des logiciels d'IA et comment l'éviter. Et les développeurs font tout pour l'éviter, afin de s'assurer que le Les logiciels d'IA sont utilisés de manière responsable et équitable.

Aussi, rappelez-vous, visitez le début de notre «Site Internet», en plus de la chaîne officielle de Telegram pour plus d'actualités, de tutoriels et de mises à jour Linux. Ouest groupe, pour plus d'informations sur le sujet d'aujourd'hui.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.