人工智能结果中的偏见和偏见

人工智能结果中的偏见和偏见

人工智能结果中的偏见和偏见

今年到目前为止,我们已经做了一些 与人工智能相关的帖子,它与自由软件和开源的关系,以及我们如何在我们的网站上使用它们 基于 GNU/Linux 的免费开放操作系统. 因此,今天我们将讨论另一个关于它们的有趣话题。

这是关于的可能性 在人工智能的结果中获得“偏见和偏见”. 因为,虽然人工智能通常非常有用,但由于它们可以产生非常精确的结果,如果不采取必要的预防措施或措施,这些结果可能包含人类意识形态的偏见。

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 个工具

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 个工具

但是,在开始这篇关于可能性的帖子之前 在 AI 结果中获得“偏见和偏见”,我们建议您随后探索 以前的相关帖子 与相同:

Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 个工具
相关文章:
Merlin 和 Translaite:在 Linux 上使用 ChatGPT 的 2 个工具

偏见和偏见:它们会出现在人工智能的结果中吗?

偏见和偏见:它们会出现在人工智能的结果中吗?

关于人工智能结果中的偏见和偏见

就个人而言,最近我尝试并推荐了一些 人工智能工具,其中很多肯定是基于使用名为 ChatBot 的 OpenAI ChatGPT. 而且我没有遇到任何重大问题 错误、不准确、虚假或不适当或冒犯性的结果. 然而,在这些节目播出的短短时间内,我们中的许多人肯定已经读到过令人不快甚至不可接受的情况,以及它们所产生的结果。

例如,a 最近的错误或不准确结果案例 这是谷歌的 ChatBot Bard 最近的一个。 尽管, 一个令人不快或令人反感的结果的老案例 当微软在社交网络平台 Twitter 上推出人工智能聊天机器人 Tay 时,该聊天机器人在运行 16 个小时后,发布了数千条推文,最终成为公开的种族主义、厌恶女性和反犹太主义。

但是,我在 Internet 上注意到,不是友好或令人愉快的结果,尤其是当生成关于人群或特定人的图像时。 因此,我认为 人工智能软件中也可能存在偏见和人为偏见. 当用于训练 AI 软件的数据存在偏差,或者软件在设计时考虑了特定群体的一组特定价值观或信仰时,这可能会发生。

因为,很多时候,在其发展的各个阶段, 它们通常是使用来自某些人口群体的大多数数据设计的 或胜过他人,或具有避免影响权力集团或偏袒社会重要群体的参数。

可能的避免措施

可能的避免措施

避免人工智能软件中的偏见和偏见, 其开发人员必须始终采取以下措施:

  1. 确保用于训练 AI 软件的数据能够代表将要使用的人群,并且软件中嵌入的价值观或信念符合目的。
  2. 实施多样性、包容性和公平性 (DIF) 措施,以帮助减少人工智能软件中的偏见。 以不歧视某些人或群体的方式。

而, 人工智能用户应该有一个基本规则:

  1. 在基于 AI 软件做出决策时,或者在根据其结果设计工作、商品、产品和服务时,要谨慎行事。
  2. 在决定使用 AI 之前,他们应该始终考虑到 AI 的偏见和偏见的可能性,以及所提供数据中的错误和不准确之处。
Linux 上的 ChatGPT:桌面客户端和 Web 浏览器
相关文章:
Linux 上的 ChatGPT:桌面客户端和 Web 浏览器

帖子的抽象横幅

总结

总之,组织和个人应该努力让自己了解 人工智能软件“偏见和偏见”的可能性以及如何避免它. 开发人员竭尽所能避免它,以确保 人工智能软件以负责任和公平的方式使用.

另外,请记住,访问我们的开头 «现场»,除了官方渠道 Telegram 了解更多新闻、教程和 Linux 更新。 西方 ,以获取有关今天主题的更多信息。


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。