Vooroordelen en vooroordelen in de resultaten van kunstmatige intelligentie

Vooroordelen en vooroordelen in de resultaten van kunstmatige intelligentie

Vooroordelen en vooroordelen in de resultaten van kunstmatige intelligentie

Tot nu toe hebben we er dit jaar wat gemaakt berichten met betrekking tot kunstmatige intelligentie, de relatie met Vrije Software en Open Source, en hoe we ze kunnen gebruiken op onze vrije en open besturingssystemen gebaseerd op GNU/Linux. Daarom zullen we vandaag een ander interessant onderwerp over hen behandelen.

En dit is, over de mogelijkheid van het verkrijgen van «vooroordelen en vooroordelen» in de resultaten van kunstmatige intelligentie. Hoewel AI meestal erg nuttig is, kunnen deze, dankzij het feit dat ze zeer nauwkeurige resultaten kunnen opleveren, menselijke ideologische vooroordelen bevatten als de nodige voorzorgsmaatregelen of maatregelen niet worden genomen.

Merlin en Translaite: 2 tools om ChatGPT op Linux te gebruiken

Merlin en Translaite: 2 tools om ChatGPT op Linux te gebruiken

Maar voordat we dit bericht beginnen over de mogelijkheid van krijg "bias en bias" in AI-resultaten, raden we u aan om vervolgens de vorige gerelateerde post met hetzelfde:

Merlin en Translaite: 2 tools om ChatGPT op Linux te gebruiken
Gerelateerd artikel:
Merlin en Translaite: 2 tools om ChatGPT op Linux te gebruiken

Vooroordelen en vooroordelen: kunnen ze voorkomen in de resultaten van AI?

Vooroordelen en vooroordelen: kunnen ze voorkomen in de resultaten van AI?

Over vooroordelen en vooroordelen in de resultaten van AI

Persoonlijk heb ik er de laatste tijd een paar geprobeerd en aanbevolen hulpmiddelen voor kunstmatige intelligentie, waarvan zeer zeker velen gebaseerd zijn op het gebruik van de zogenaamde ChatBot OpenAI ChatGPT. En ik heb er geen grote problemen mee gehad foutieve, onnauwkeurige, valse of ongepaste of aanstootgevende resultaten. Echter, in de korte tijd dat deze in de ether zijn, hebben velen van ons zeker gelezen over onaangename en zelfs onaanvaardbare situaties, over de resultaten die ze hebben opgeleverd.

Bijvoorbeeld een recent geval van foutieve of onnauwkeurige resultaten Het was de recente van ChatBot Bard van Google. Terwijl, een oud geval van onaangename of aanstootgevende resultaten was, toen Microsoft Tay lanceerde, een chatbot met kunstmatige intelligentie, op het sociale netwerkplatform Twitter, die na 16 uur werken duizenden tweets publiceerde, die uiteindelijk openlijk racistisch, vrouwonvriendelijk en antisemitisch werden.

Ik heb echter op internet gemerkt dat er geen vriendelijke of prettige resultaten zijn, vooral wanneer er afbeeldingen worden gegenereerd over groepen mensen of specifieke mensen. Om deze reden denk ik dat vooroordelen en menselijke vooroordelen kunnen ook aanwezig zijn in AI-software. En dat dit misschien kan gebeuren wanneer de gegevens die worden gebruikt om de AI-software te trainen, bevooroordeeld zijn, of wanneer de software is ontworpen met een bepaalde reeks waarden of overtuigingen van bepaalde groepen in gedachten.

Aangezien, vele malen, in de verschillende stadia van ontwikkeling, Ze zijn meestal ontworpen met behulp van meerderheidsgegevens van een demografische groep of zegevieren over anderen, of met parameters om te voorkomen dat machtsgroepen worden beïnvloed of belangrijke groepen in de samenleving worden bevoordeeld.

Mogelijke maatregelen om dit te voorkomen

Mogelijke maatregelen om dit te voorkomen

Om vooroordelen en vooringenomenheid in AI-software te voorkomen, moeten altijd door de ontwikkelaars worden genomen, maatregelen zoals:

  1. Zorg ervoor dat de gegevens die worden gebruikt om de AI-software te trainen, representatief zijn voor de populatie waarvoor deze zal worden gebruikt, en dat de waarden of overtuigingen die in de software zijn ingebed, geschikt zijn voor het beoogde doel.
  2. Implementeer maatregelen op het gebied van diversiteit, inclusie en eerlijkheid (DIF) om vooringenomenheid in AI-software te helpen verminderen. Op zo'n manier dat het niet discrimineert tegen bepaalde mensen of groepen.

Terwijl, AI-gebruikers zouden als fundamentele regel moeten hebben:

  1. Voorzichtigheid betrachten bij het nemen van beslissingen op basis van AI-software, of bij het maken van banen, goederen, producten en diensten met de resultaten ervan.
  2. Ze moeten altijd rekening houden met de mogelijke vooroordelen en vooringenomenheid van AI, en met fouten en onnauwkeurigheden in de aangeboden gegevens, alvorens een beslissing te nemen over het gebruik ervan.
ChatGPT op Linux: desktopclients en webbrowsers
Gerelateerd artikel:
ChatGPT op Linux: desktopclients en webbrowsers

Abstracte banner voor post

Overzicht

Kortom, organisaties en individuen moeten ernaar streven om zich te informeren over het potentieel voor "bias en bias" van AI-software en hoe dit te vermijden. En de ontwikkelaars doen er alles aan om dit te voorkomen, om ervoor te zorgen dat de AI-software wordt verantwoord en eerlijk gebruikt.

Vergeet ook niet, bezoek het begin van onze «WebSite», naast het officiële kanaal van Telegram voor meer nieuws, tutorials en Linux-updates. Westen groep, voor meer informatie over het onderwerp van vandaag.


Laat je reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

*

*

  1. Verantwoordelijk voor de gegevens: Miguel Ángel Gatón
  2. Doel van de gegevens: Controle SPAM, commentaarbeheer.
  3. Legitimatie: uw toestemming
  4. Mededeling van de gegevens: De gegevens worden niet aan derden meegedeeld, behalve op grond van wettelijke verplichting.
  5. Gegevensopslag: database gehost door Occentus Networks (EU)
  6. Rechten: u kunt uw gegevens op elk moment beperken, herstellen en verwijderen.