今年到目前為止,我們已經做了一些 與人工智能相關的帖子,它與自由軟件和開源的關係,以及我們如何在我們的網站上使用它們 基於 GNU/Linux 的免費開放操作系統. 因此,今天我們將討論另一個關於它們的有趣話題。
這是關於的可能性 在人工智能的結果中獲得“偏見和偏見”. 因為,雖然人工智能通常非常有用,但由於它們可以產生非常精確的結果,如果不採取必要的預防措施或措施,這些結果可能包含人類意識形態的偏見。
但是,在開始這篇關於可能性的帖子之前 在 AI 結果中獲得“偏見和偏見”,我們建議您隨後探索 以前的相關帖子 與相同:
偏見和偏見:它們會出現在人工智能的結果中嗎?
關於人工智能結果中的偏見和偏見
就個人而言,最近我嘗試並推薦了一些 人工智能工具,其中很多肯定是基於使用名為 ChatBot 的 OpenAI ChatGPT. 而且我沒有遇到任何重大問題 錯誤、不准確、虛假或不適當或冒犯性的結果. 然而,在這些節目播出的短短時間內,我們中的許多人肯定都讀到過令人不快甚至不可接受的情況,以及它們所產生的結果。
例如,一個 最近的錯誤或不准確結果案例 這是最近來自 Google 的 ChatBot Bard 的一個。 儘管, 一個令人不快或令人反感的結果的老案例 當微軟在社交網絡平台 Twitter 上推出人工智能聊天機器人 Tay 時,該聊天機器人在運行 16 小時後發布了數千條推文,最終公開了種族主義、厭惡女性和反猶太主義。
但是,我在 Internet 上註意到,不是友好或令人愉快的結果,尤其是當生成關於人群或特定人的圖像時。 因此,我認為 人工智能軟件中也可能存在偏見和人為偏見. 當用於訓練 AI 軟件的數據存在偏差,或者當軟件在設計時考慮了特定群體的一組特定價值觀或信仰時,這可能會發生。
因為,很多時候,在其發展的各個階段, 它們通常是使用來自某些人口群體的大多數數據設計的 或勝過他人,或具有避免影響權力集團或偏袒社會重要群體的參數。
可能的避免措施
避免人工智能軟件中的偏見和偏見, 其開發人員必須始終採取以下措施:
- 確保用於訓練 AI 軟件的數據能夠代表將要使用的人群,並且軟件中嵌入的價值觀或信念符合目的。
- 實施多樣性、包容性和公平性 (DIF) 措施,以幫助減少人工智能軟件中的偏見。 以不歧視某些人或群體的方式。
而, 人工智能用戶應該有一個基本規則:
- 在基於 AI 軟件做出決策時,或者在根據其結果設計工作、商品、產品和服務時,要謹慎行事。
- 在決定使用人工智能之前,他們應該始終考慮到人工智能的偏見和偏見的可能性,以及所提供數據中的錯誤和不准確之處。
總結
總之,組織和個人應該努力讓自己了解 人工智能軟件“偏見和偏見”的可能性以及如何避免它. 開發人員竭盡所能避免它,以確保 人工智能軟件以負責任和公平的方式使用.
另外,請記住,訪問我們的開頭 «現場»,除了官方渠道 Telegram 了解更多新聞、教程和 Linux 更新。 西方 組,以獲取有關今天主題的更多信息。