Предубеждения и предубеждения в результатах искусственного интеллекта

Предубеждения и предубеждения в результатах искусственного интеллекта

Предубеждения и предубеждения в результатах искусственного интеллекта

Пока в этом году мы сделали несколько сообщения, связанные с искусственным интеллектом, его взаимосвязь со свободным программным обеспечением и открытым исходным кодом, и как мы можем использовать их в нашей бесплатные и открытые операционные системы на базе GNU/Linux. Поэтому сегодня мы затронем еще одну интересную тему о них.

И это, о возможности получить «предубеждения и предубеждения» в результатах Искусственного Интеллекта. Поскольку, хотя ИИ обычно очень полезен, благодаря тому, что он может давать очень точные результаты, он может содержать человеческие идеологические предубеждения, если не будут приняты необходимые меры предосторожности или меры.

Merlin и Translaite: 2 инструмента для использования ChatGPT в Linux

Merlin и Translaite: 2 инструмента для использования ChatGPT в Linux

Но, прежде чем начать этот пост о возможности получить «предвзятость и предвзятость» в результатах ИИ, мы рекомендуем вам изучить предыдущий связанный пост с тем же:

Merlin и Translaite: 2 инструмента для использования ChatGPT в Linux
Теме статьи:
Merlin и Translaite: 2 инструмента для использования ChatGPT в Linux

Предубеждения и предубеждения: могут ли они возникнуть в результатах ИИ?

Предубеждения и предубеждения: могут ли они возникнуть в результатах ИИ?

О предубеждениях и предубеждениях в результатах ИИ

Лично я в последнее время пробовал и рекомендовал несколько инструменты искусственного интеллекта, многие из которых наверняка основаны на использовании чат-бота под названием Чат OpenAIGPT. И у меня не было серьезных проблем с ошибочные, неточные, ложные, неуместные или оскорбительные результаты. Однако за то короткое время, что они были в эфире, наверняка многие из нас читали о неприятных и даже недопустимых ситуациях, о порождаемых ими результатах.

Например, недавний случай ошибочных или неточных результатов Это было последнее сообщение от Google ChatBot Bard. Пока, старый случай неприятных или оскорбительных результатов Это было, когда Microsoft запустила Tay, чат-бота с искусственным интеллектом, в социальной сети Twitter, где после 16 часов работы чат-бот опубликовал тысячи твитов, которые в итоге стали откровенно расистскими, женоненавистническими и антисемитскими.

Однако я заметил в Интернете недружественные или приятные результаты, особенно когда создаются изображения о группах людей или конкретных людях. Поэтому я думаю, что предубеждения и человеческие предубеждения также могут присутствовать в программном обеспечении ИИ.. И что, возможно, это может произойти, когда данные, используемые для обучения программного обеспечения ИИ, предвзяты или когда программное обеспечение разработано с учетом определенного набора ценностей или убеждений определенных групп.

Поскольку неоднократно на различных стадиях своего развития Обычно они разрабатываются с использованием данных большинства из какой-либо демографической группы. или преобладание над другими, или с параметрами, позволяющими избежать воздействия на влиятельные группы или в пользу важных групп общества.

Возможные меры, чтобы этого избежать

Возможные меры, чтобы этого избежать

Чтобы избежать предубеждений и предвзятости в программном обеспечении ИИ, всегда должны приниматься его разработчиками такие меры, как:

  1. Убедитесь, что данные, используемые для обучения программного обеспечения ИИ, репрезентативны для населения, для которого они будут использоваться, и что ценности или убеждения, заложенные в программное обеспечение, соответствуют цели.
  2. Внедрите меры разнообразия, включения и справедливости (DIF), чтобы уменьшить предвзятость в программном обеспечении ИИ. Таким образом, чтобы не было дискриминации в отношении определенных людей или групп.

В то время как, Пользователи ИИ должны иметь в качестве основного правила:

  1. Соблюдение осторожности при принятии решений на основе программного обеспечения ИИ или при создании рабочих мест, товаров, продуктов и услуг с его результатами.
  2. Они всегда должны принимать во внимание возможность предвзятости и предвзятости ИИ, а также ошибки и неточности в предлагаемых данных, прежде чем принимать решение об его использовании.
ChatGPT в Linux: настольные клиенты и веб-браузеры
Теме статьи:
ChatGPT в Linux: настольные клиенты и веб-браузеры

Абстрактный баннер для поста

Резюме

Таким образом, организации и отдельные лица должны стремиться получать информацию о возможность «предвзятости и предвзятости» программного обеспечения ИИ и как этого избежать. И разработчики делают все возможное, чтобы этого избежать, чтобы обеспечить Программное обеспечение AI используется ответственно и справедливо.

Также, помните, посетите начало нашего «сайт», помимо официального канала Telegram для получения дополнительных новостей, руководств и обновлений Linux. Запад группа, для получения дополнительной информации по сегодняшней теме.


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: Мигель Анхель Гатон
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.