人工智能結果中的偏見和偏見

人工智能結果中的偏見和偏見

人工智能結果中的偏見和偏見

今年到目前為止,我們已經做了一些 與人工智能相關的帖子,它與自由軟件和開源的關係,以及我們如何在我們的網站上使用它們 基於 GNU/Linux 的免費開放操作系統. 因此,今天我們將討論另一個關於它們的有趣話題。

這是關於的可能性 在人工智能的結果中獲得“偏見和偏見”. 因為,雖然人工智能通常非常有用,但由於它們可以產生非常精確的結果,如果不採取必要的預防措施或措施,這些結果可能包含人類意識形態的偏見。

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 個工具

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 個工具

但是,在開始這篇關於可能性的帖子之前 在 AI 結果中獲得“偏見和偏見”,我們建議您隨後探索 以前的相關帖子 與相同:

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 個工具
相關文章:
Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 個工具

偏見和偏見:它們會出現在人工智能的結果中嗎?

偏見和偏見:它們會出現在人工智能的結果中嗎?

關於人工智能結果中的偏見和偏見

就個人而言,最近我嘗試並推薦了一些 人工智能工具,其中很多肯定是基於使用名為 ChatBot 的 OpenAI ChatGPT. 而且我沒有遇到任何重大問題 錯誤、不准確、虛假或不適當或冒犯性的結果. 然而,在這些節目播出的短短時間內,我們中的許多人肯定都讀到過令人不快甚至不可接受的情況,以及它們所產生的結果。

例如,一個 最近的錯誤或不准確結果案例 這是最近來自 Google 的 ChatBot Bard 的一個。 儘管, 一個令人不快或令人反感的結果的老案例 當微軟在社交網絡平台 Twitter 上推出人工智能聊天機器人 Tay 時,該聊天機器人在運行 16 小時後發布了數千條推文,最終公開了種族主義、厭惡女性和反猶太主義。

但是,我在 Internet 上註意到,不是友好或令人愉快的結果,尤其是當生成關於人群或特定人的圖像時。 因此,我認為 人工智能軟件中也可能存在偏見和人為偏見. 當用於訓練 AI 軟件的數據存在偏差,或者當軟件在設計時考慮了特定群體的一組特定價值觀或信仰時,這可能會發生。

因為,很多時候,在其發展的各個階段, 它們通常是使用來自某些人口群體的大多數數據設計的 或勝過他人,或具有避免影響權力集團或偏袒社會重要群體的參數。

可能的避免措施

可能的避免措施

避免人工智能軟件中的偏見和偏見, 其開發人員必須始終採取以下措施:

  1. 確保用於訓練 AI 軟件的數據能夠代表將要使用的人群,並且軟件中嵌入的價值觀或信念符合目的。
  2. 實施多樣性、包容性和公平性 (DIF) 措施,以幫助減少人工智能軟件中的偏見。 以不歧視某些人或群體的方式。

而, 人工智能用戶應該有一個基本規則:

  1. 在基於 AI 軟件做出決策時,或者在根據其結果設計工作、商品、產品和服務時,要謹慎行事。
  2. 在決定使用人工智能之前,他們應該始終考慮到人工智能的偏見和偏見的可能性,以及所提供數據中的錯誤和不准確之處。
Linux 上的 ChatGPT:桌面客戶端和 Web 瀏覽器
相關文章:
Linux 上的 ChatGPT:桌面客戶端和 Web 瀏覽器

帖子的抽象橫幅

總結

總之,組織和個人應該努力讓自己了解 人工智能軟件“偏見和偏見”的可能性以及如何避免它. 開發人員竭盡所能避免它,以確保 人工智能軟件以負責任和公平的方式使用.

另外,請記住,訪問我們的開頭 «現場»,除了官方渠道 Telegram 了解更多新聞、教程和 Linux 更新。 西方 ,以獲取有關今天主題的更多信息。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責數據:MiguelÁngelGatón
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。