今年はこれまでにいくつか作ってきました 人工知能関連の投稿、フリーソフトウェアおよびオープンソースとの関係、およびそれらを私たちの中でどのように使用できるか GNU/Linux ベースのフリーでオープンなオペレーティング システム. したがって、今日はそれらに関する別の興味深いトピックに取り組みます。
そして、これは、 人工知能の結果から「偏見と偏見」を得る. AI は通常非常に有用ですが、非常に正確な結果を生成できるという事実のおかげで、必要な予防措置や措置が講じられていない場合、AI には人間のイデオロギー的バイアスが含まれる可能性があります。
しかし、この投稿を始める前に、 AIの結果に「偏りと偏り」を得る、次に探索することをお勧めします 以前の関連記事 同じで:
偏見と偏見: AI の結果に生じる可能性はありますか?
AIの結果における偏見と偏見について
個人的に、最近私はいくつかを試して推奨しました 人工知能ツールと呼ばれるChatBotの使用に基づいていることは間違いありません。 OpenAI ChatGPT. そして、私は大きな問題を抱えていません 誤った、不正確な、虚偽の、または不適切または不快な結果. しかし、これらが放送されて間もなく、私たちの多くは、それらによって生み出された結果について、不快で容認できない状況について読んだことがあります.
例えば、 誤ったまたは不正確な結果の最近のケース これは、Google の ChatBot Bard からの最近のものでした。 その間、 不快または不快な結果の古い事例 マイクロソフトがソーシャル ネットワーキング プラットフォームの Twitter で人工知能チャットボット Tay を立ち上げたのは、16 時間の運用後、チャットボットが何千ものツイートを公開したときでした。
しかし、特に人々のグループや特定の人々に関する画像が生成された場合、友好的または快適な結果ではないことにインターネット上で気付きました. したがって、私は AIソフトウェアには偏見や人間の偏見も存在する可能性があります. AIソフトウェアのトレーニングに使用されるデータに偏りがある場合、またはソフトウェアが特定のグループの特定の一連の価値観または信念を念頭に置いて設計されている場合に、おそらくこれが発生する可能性があります.
開発のさまざまな段階で何度も それらは通常、何らかの人口統計学的グループからの過半数のデータを使用して設計されています または他の人に勝つか、権力グループに影響を与えたり、社会の重要なグループを支持したりすることを避けるためのパラメーターを使用します。
それを回避するために考えられる対策
AIソフトウェアにおける偏見や偏見を避けるために、開発者は常に次のような対策を講じる必要があります。
- AIソフトウェアのトレーニングに使用されるデータが、それが使用される母集団を代表するものであること、およびソフトウェアに埋め込まれた価値または信念が目的に適合していることを確認してください。
- ダイバーシティ、インクルージョン、フェアネス (DIF) 対策を実装して、AI ソフトウェアのバイアスを軽減します。 特定の人やグループを差別しないように。
一方、 AIユーザーが基本ルールとして持つべき:
- AIソフトウェアに基づいて意思決定を行うとき、またはその結果で仕事、商品、製品、サービスを作成するときは注意してください。
- AI の使用について決定を下す前に、常に、AI の偏見やバイアスの可能性、および提供されるデータのエラーや不正確さを考慮に入れる必要があります。
要約
要約すると、組織と個人は、次のことについて自分自身に知らせるよう努めるべきです。 AIソフトウェアの「バイアスとバイアス」の可能性とそれを回避する方法. そして、開発者は、それを回避するためにできる限りのことを行います。 AI ソフトウェアは責任を持って公正に使用されます.
また、覚えておいてください。 «サイト»の公式チャンネルに加えて、 Telegram その他のニュース、チュートリアル、Linux の更新については、. 西 グループ、今日のトピックの詳細については。