Preconceitos e vieses nos resultados da Inteligência Artificial

Preconceitos e vieses nos resultados da Inteligência Artificial

Preconceitos e vieses nos resultados da Inteligência Artificial

Até agora, este ano, fizemos alguns posts relacionados a Inteligência Artificial, sua relação com Software Livre e Código Aberto, e como podemos utilizá-los em nosso sistemas operacionais livres e abertos baseados em GNU/Linux. Por isso, hoje abordaremos mais um tema interessante sobre eles.

E isto é, sobre a possibilidade de obter «preconceitos e vieses» nos resultados da Inteligência Artificial. Pois, embora as IA sejam geralmente muito úteis, pelo fato de poderem produzir resultados muito precisos, podem conter vieses ideológicos humanos, se não forem tomadas as precauções ou medidas necessárias.

Merlin e Translaite: 2 ferramentas para usar o ChatGPT no Linux

Merlin e Translaite: 2 ferramentas para usar o ChatGPT no Linux

Mas, antes de começar este post sobre a possibilidade de obter “viés e viés” nos resultados da IA, recomendamos que você explore o postagem relacionada anterior com o mesmo:

Merlin e Translaite: 2 ferramentas para usar o ChatGPT no Linux
Artigo relacionado:
Merlin e Translaite: 2 ferramentas para usar o ChatGPT no Linux

Preconceitos e vieses: podem ocorrer nos resultados da IA?

Preconceitos e vieses: podem ocorrer nos resultados da IA?

Sobre preconceitos e vieses nos resultados da IA

Pessoalmente, ultimamente tenho experimentado e recomendado alguns ferramentas de inteligência artificial, que certamente muitos são baseados no uso do ChatBot chamado OpenAI ChatGPT. E não tive grandes problemas com resultados errôneos, imprecisos, falsos ou inapropriados ou ofensivos. Porém, no pouco tempo que eles estão no ar, muitos de nós com certeza já lemos sobre situações desagradáveis ​​e até mesmo inaceitáveis, sobre os resultados gerados por elas.

Por exemplo, uma caso recente de resultados errados ou imprecisos Era o recente do ChatBot Bard do Google. Enquanto que, um caso antigo de resultados desagradáveis ​​ou ofensivos Foi quando a Microsoft lançou o Tay, um chatbot de inteligência artificial, na plataforma de rede social Twitter, que, após 16 horas de operação, o chatbot publicou milhares de tweets, que no final se tornaram abertamente racistas, misóginos e antissemitas.

No entanto, tenho notado na Internet, resultados nada amigáveis ​​ou agradáveis, principalmente quando são geradas imagens sobre grupos de pessoas ou pessoas específicas. Portanto, eu acho que preconceito e preconceitos humanos também podem estar presentes no software de IA. E talvez isso possa acontecer quando os dados usados ​​para treinar o software de IA são tendenciosos, ou quando o software é projetado com um determinado conjunto de valores ou crenças de determinados grupos em mente.

Visto que, muitas vezes, em suas diversas fases de desenvolvimento, Eles geralmente são projetados usando dados majoritários de algum grupo demográfico ou prevalecendo sobre outros, ou com parâmetros para evitar afetar grupos de poder ou favorecer grupos importantes da sociedade.

Possíveis medidas para evitá-lo

Possíveis medidas para evitá-lo

Para evitar preconceito e viés no software de IA, devem sempre ser tomadas por seus desenvolvedores, medidas como:

  1. Certifique-se de que os dados usados ​​para treinar o software de IA sejam representativos da população para a qual será usado e que os valores ou crenças incorporados no software sejam adequados ao propósito.
  2. Implemente medidas de diversidade, inclusão e justiça (DIF) para ajudar a reduzir o viés no software de IA. De forma que não discrimine certas pessoas ou grupos.

Enquanto que, Os usuários de IA devem ter como regra fundamental:

  1. Ter cautela ao tomar decisões com base em software de IA ou ao elaborar trabalhos, bens, produtos e serviços com seus resultados.
  2. Sempre, eles devem levar em conta o potencial de preconceito e viés da IA, e de erros e imprecisões nos dados oferecidos, antes de tomar uma decisão sobre seu uso.
ChatGPT no Linux: clientes de desktop e navegadores da Web
Artigo relacionado:
ChatGPT no Linux: clientes de desktop e navegadores da Web

Banner abstrato para postagem

Resumo

Em resumo, as organizações e os indivíduos devem se esforçar para se informar sobre o potencial de “viés e viés” do software de IA e como evitá-lo. E os desenvolvedores fazem tudo o que podem para evitá-lo, a fim de garantir que o O software de IA é usado de forma responsável e justa.

Além disso, lembre-se, visite o início do nosso «WebSite», além do canal oficial de Telegram para mais notícias, tutoriais e atualizações do Linux. Oeste grupo, para obter mais informações sobre o tema de hoje.


Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.