Jusqu'à présent cette année, nous avons fait quelques articles liés à l'intelligence artificielle, sa relation avec les logiciels libres et Open Source, et comment nous pouvons les utiliser sur notre systèmes d'exploitation libres et ouverts basés sur GNU/Linux. Par conséquent, nous aborderons aujourd'hui un autre sujet intéressant à leur sujet.
Et il s'agit de la possibilité de obtenir des «préjugés et biais» dans les résultats de l'Intelligence Artificielle. Car, bien que l'IA soit généralement très utile, grâce au fait qu'elle peut produire des résultats très précis, ceux-ci peuvent contenir des biais idéologiques humains, si les précautions ou mesures nécessaires ne sont pas prises.
Mais, avant de commencer cet article sur la possibilité de obtenir "biais et biais" dans les résultats de l'IA, nous vous recommandons d'explorer ensuite post connexe précédent avec le même:
Préjugés et biais : peuvent-ils se produire dans les résultats de l'IA ?
Sur les préjugés et les biais dans les résultats de l'IA
Personnellement, dernièrement, j'ai essayé et recommandé quelques outils d'intelligence artificielle, dont très sûrement beaucoup reposent sur l'utilisation du ChatBot appelé OpenAI ChatGPT. Et je n'ai pas eu de problèmes majeurs avec résultats erronés, inexacts, faux, inappropriés ou offensants. Cependant, depuis le peu de temps qu'ils ont été diffusés, beaucoup d'entre nous ont sûrement lu des informations sur des situations désagréables, voire inacceptables, sur les résultats générés par celles-ci.
Par exemple, un cas récent de résultats erronés ou inexacts C'était le dernier du ChatBot Bard de Google. Tandis que, un ancien cas de résultats désagréables ou offensants C'est lorsque Microsoft a lancé Tay, un chatbot d'intelligence artificielle, sur la plateforme de réseautage social Twitter, qu'après 16 heures de fonctionnement, le chatbot a publié des milliers de tweets, qui au final sont devenus ouvertement racistes, misogynes et antisémites.
Cependant, j'ai remarqué sur Internet des résultats peu amicaux ou agréables, en particulier lorsque des images sont générées sur des groupes de personnes ou des personnes spécifiques. Par conséquent, je pense que les préjugés et les préjugés humains peuvent également être présents dans les logiciels d'IA. Et que cela peut peut-être se produire lorsque les données utilisées pour former le logiciel d'IA sont biaisées, ou lorsque le logiciel est conçu avec un ensemble particulier de valeurs ou de croyances de certains groupes à l'esprit.
Depuis, à maintes reprises, dans ses divers stades de développement, Ils sont généralement conçus à l'aide de données majoritaires d'un certain groupe démographique ou prévalant sur les autres, ou avec des paramètres pour éviter d'affecter les groupes de pouvoir ou de favoriser des groupes importants de la société.
Mesures possibles pour l'éviter
Pour éviter les préjugés et les préjugés dans les logiciels d'IA, doivent toujours être prises par ses développeurs, des mesures telles que :
- Assurez-vous que les données utilisées pour former le logiciel d'IA sont représentatives de la population pour laquelle il sera utilisé, et que les valeurs ou les croyances intégrées dans le logiciel sont adaptées à l'objectif.
- Mettre en œuvre des mesures de diversité, d'inclusion et d'équité (DIF) pour aider à réduire les biais dans les logiciels d'IA. De manière à ne pas discriminer certaines personnes ou certains groupes.
Tandis que, Les utilisateurs d'IA devraient avoir comme règle fondamentale:
- Faire preuve de prudence lors de la prise de décisions basées sur un logiciel d'IA, ou lors de la création d'emplois, de biens, de produits et de services avec ses résultats.
- Ils doivent toujours tenir compte du potentiel de préjugés et de biais de l'IA, ainsi que des erreurs et des inexactitudes dans les données proposées, avant de prendre une décision quant à son utilisation.
Résumé
En résumé, les organisations et les individus devraient s'efforcer de s'informer sur le potentiel de "biais et parti pris" des logiciels d'IA et comment l'éviter. Et les développeurs font tout pour l'éviter, afin de s'assurer que le Les logiciels d'IA sont utilisés de manière responsable et équitable.
Aussi, rappelez-vous, visitez le début de notre «Site Internet», en plus de la chaîne officielle de Telegram pour plus d'actualités, de tutoriels et de mises à jour Linux. Ouest groupe, pour plus d'informations sur le sujet d'aujourd'hui.