Vorurteile und Verzerrungen in den Ergebnissen der Künstlichen Intelligenz

Vorurteile und Verzerrungen in den Ergebnissen der Künstlichen Intelligenz

Vorurteile und Verzerrungen in den Ergebnissen der Künstlichen Intelligenz

Bisher haben wir dieses Jahr einige gemacht Beiträge zum Thema Künstliche Intelligenz, seine Beziehung zu Freier Software und Open Source und wie wir sie auf unserer verwenden können freie und offene Betriebssysteme basierend auf GNU/Linux. Deshalb werden wir heute ein weiteres interessantes Thema darüber ansprechen.

Und das ist, über die Möglichkeit von erhalten «Vorurteile und Verzerrungen» in den Ergebnissen der Künstlichen Intelligenz. Denn obwohl KI in der Regel sehr nützlich ist, weil sie sehr genaue Ergebnisse liefern kann, können diese menschenideologische Vorurteile enthalten, wenn nicht die notwendigen Vorkehrungen oder Maßnahmen getroffen werden.

Merlin und Translaite: 2 Tools zur Verwendung von ChatGPT unter Linux

Merlin und Translaite: 2 Tools zur Verwendung von ChatGPT unter Linux

Aber bevor Sie diesen Beitrag über die Möglichkeit von starten Erhalten Sie „Bias und Bias“ in KI-Ergebnissen, wir empfehlen Ihnen dann, die zu erkunden vorheriger verwandter Beitrag mit dem gleichen:

Merlin und Translaite: 2 Tools zur Verwendung von ChatGPT unter Linux
Verwandte Artikel:
Merlin und Translaite: 2 Tools zur Verwendung von ChatGPT unter Linux

Vorurteile und Verzerrungen: Können sie in den Ergebnissen der KI vorkommen?

Vorurteile und Verzerrungen: Können sie in den Ergebnissen der KI vorkommen?

Über Vorurteile und Verzerrungen in den Ergebnissen der KI

Persönlich habe ich in letzter Zeit einige ausprobiert und empfohlen Werkzeuge der künstlichen Intelligenz, was sehr sicher viele auf der Nutzung des so genannten ChatBot basieren OpenAI-ChatGPT. Und ich hatte keine größeren Probleme mit fehlerhafte, ungenaue, falsche oder unangemessene oder anstößige Ergebnisse. In der kurzen Zeit, in der diese ausgestrahlt wurden, haben viele von uns jedoch sicherlich von unangenehmen und sogar inakzeptablen Situationen und den daraus resultierenden Ergebnissen gelesen.

Zum Beispiel kann ein aktueller Fall von fehlerhaften oder ungenauen Ergebnissen Es war die neueste von Googles ChatBot Bard. Während, ein alter Fall von unangenehmen oder beleidigenden Ergebnissen Als Microsoft Tay, einen Chatbot mit künstlicher Intelligenz, auf der sozialen Netzwerkplattform Twitter einführte, veröffentlichte der Chatbot nach 16 Stunden Betrieb Tausende von Tweets, die am Ende offen rassistisch, frauenfeindlich und antisemitisch wurden.

Allerdings habe ich im Internet keine freundlichen oder angenehmen Ergebnisse festgestellt, insbesondere wenn Bilder über Personengruppen oder bestimmte Personen generiert werden. Daher denke ich das Vorurteile und menschliche Vorurteile können auch in KI-Software vorhanden sein. Und dass dies möglicherweise passieren kann, wenn die zum Trainieren der KI-Software verwendeten Daten voreingenommen sind oder wenn die Software mit einem bestimmten Satz von Werten oder Überzeugungen bestimmter Gruppen im Hinterkopf entwickelt wurde.

Da vielfach in seinen verschiedenen Entwicklungsstadien Sie werden normalerweise unter Verwendung von Mehrheitsdaten aus einer demografischen Gruppe entworfen oder Vorrang vor anderen, oder mit Parametern, um zu vermeiden, Machtgruppen zu beeinflussen oder wichtige Gruppen der Gesellschaft zu bevorzugen.

Mögliche Maßnahmen zur Vermeidung

Mögliche Maßnahmen zur Vermeidung

Um Vorurteile und Voreingenommenheit in KI-Software zu vermeiden, müssen immer von ihren Entwicklern ergriffen werden, Maßnahmen wie:

  1. Stellen Sie sicher, dass die zum Trainieren der KI-Software verwendeten Daten repräsentativ für die Bevölkerung sind, für die sie verwendet werden, und dass die in die Software eingebetteten Werte oder Überzeugungen zweckmäßig sind.
  2. Implementieren Sie Diversity, Inclusion and Fairness (DIF)-Maßnahmen, um dazu beizutragen, Verzerrungen in KI-Software zu reduzieren. So, dass bestimmte Personen oder Gruppen nicht diskriminiert werden.

Während, KI-Nutzer sollten grundsätzlich haben:

  1. Seien Sie vorsichtig, wenn Sie Entscheidungen auf der Grundlage von KI-Software treffen oder mit ihren Ergebnissen Jobs, Waren, Produkte und Dienstleistungen erstellen.
  2. Sie sollten immer das Potenzial für Vorurteile und Vorurteile in Bezug auf KI sowie für Fehler und Ungenauigkeiten in den angebotenen Daten berücksichtigen, bevor sie eine Entscheidung über deren Verwendung treffen.
ChatGPT unter Linux: Desktop-Clients und Webbrowser
Verwandte Artikel:
ChatGPT unter Linux: Desktop-Clients und Webbrowser

Abstraktes Banner für Post

Zusammenfassung

Zusammenfassend sollten sich Organisationen und Einzelpersonen bemühen, sich darüber zu informieren das Potenzial für „Bias and Bias“ von KI-Software und wie man es vermeidet. Und die Entwickler tun alles, um dies zu vermeiden, um sicherzustellen, dass die KI-Software wird verantwortungsbewusst und fair eingesetzt.

Denken Sie auch daran, besuchen Sie den Anfang unserer «Website», zusätzlich zum offiziellen Kanal von Telegram für weitere Neuigkeiten, Tutorials und Linux-Updates. Westen Gruppe, für weitere Informationen zum heutigen Thema.


Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: Miguel Ángel Gatón
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.