今年到目前为止,我们已经做了一些 与人工智能相关的帖子,它与自由软件和开源的关系,以及我们如何在我们的网站上使用它们 基于 GNU/Linux 的免费开放操作系统. 因此,今天我们将讨论另一个关于它们的有趣话题。
这是关于的可能性 在人工智能的结果中获得“偏见和偏见”. 因为,虽然人工智能通常非常有用,但由于它们可以产生非常精确的结果,如果不采取必要的预防措施或措施,这些结果可能包含人类意识形态的偏见。
但是,在开始这篇关于可能性的帖子之前 在 AI 结果中获得“偏见和偏见”,我们建议您随后探索 以前的相关帖子 与相同:
偏见和偏见:它们会出现在人工智能的结果中吗?
关于人工智能结果中的偏见和偏见
就个人而言,最近我尝试并推荐了一些 人工智能工具,其中很多肯定是基于使用名为 ChatBot 的 OpenAI ChatGPT. 而且我没有遇到任何重大问题 错误、不准确、虚假或不适当或冒犯性的结果. 然而,在这些节目播出的短短时间内,我们中的许多人肯定已经读到过令人不快甚至不可接受的情况,以及它们所产生的结果。
例如,a 最近的错误或不准确结果案例 这是谷歌的 ChatBot Bard 最近的一个。 尽管, 一个令人不快或令人反感的结果的老案例 当微软在社交网络平台 Twitter 上推出人工智能聊天机器人 Tay 时,该聊天机器人在运行 16 个小时后,发布了数千条推文,最终成为公开的种族主义、厌恶女性和反犹太主义。
但是,我在 Internet 上注意到,不是友好或令人愉快的结果,尤其是当生成关于人群或特定人的图像时。 因此,我认为 人工智能软件中也可能存在偏见和人为偏见. 当用于训练 AI 软件的数据存在偏差,或者软件在设计时考虑了特定群体的一组特定价值观或信仰时,这可能会发生。
因为,很多时候,在其发展的各个阶段, 它们通常是使用来自某些人口群体的大多数数据设计的 或胜过他人,或具有避免影响权力集团或偏袒社会重要群体的参数。
可能的避免措施
避免人工智能软件中的偏见和偏见, 其开发人员必须始终采取以下措施:
- 确保用于训练 AI 软件的数据能够代表将要使用的人群,并且软件中嵌入的价值观或信念符合目的。
- 实施多样性、包容性和公平性 (DIF) 措施,以帮助减少人工智能软件中的偏见。 以不歧视某些人或群体的方式。
而, 人工智能用户应该有一个基本规则:
- 在基于 AI 软件做出决策时,或者在根据其结果设计工作、商品、产品和服务时,要谨慎行事。
- 在决定使用 AI 之前,他们应该始终考虑到 AI 的偏见和偏见的可能性,以及所提供数据中的错误和不准确之处。
总结
总之,组织和个人应该努力让自己了解 人工智能软件“偏见和偏见”的可能性以及如何避免它. 开发人员竭尽所能避免它,以确保 人工智能软件以负责任和公平的方式使用.
另外,请记住,访问我们的开头 «现场»,除了官方渠道 Telegram 了解更多新闻、教程和 Linux 更新。 西方 组,以获取有关今天主题的更多信息。