Prasangka dan bias dalam hasil Artificial Intelligence

Prasangka dan bias dalam hasil Artificial Intelligence

Prasangka dan bias dalam hasil Artificial Intelligence

Sejauh tahun ini, kami telah membuat beberapa postingan terkait Kecerdasan Buatan, hubungannya dengan Perangkat Lunak Bebas dan Sumber Terbuka, dan bagaimana kami dapat menggunakannya di sistem operasi bebas dan terbuka berbasis GNU/Linux. Oleh karena itu, hari ini kami akan membahas topik menarik lainnya tentang mereka.

Dan ini, tentang kemungkinan dapatkan «prasangka dan bias» dalam hasil Kecerdasan Buatan. Karena, meskipun AI biasanya sangat berguna, berkat fakta bahwa mereka dapat menghasilkan hasil yang sangat tepat, ini dapat mengandung bias ideologis manusia, jika tindakan pencegahan atau tindakan yang diperlukan tidak diambil.

Merlin dan Translaite: 2 alat untuk menggunakan ChatGPT di Linux

Merlin dan Translaite: 2 alat untuk menggunakan ChatGPT di Linux

Tapi, sebelum memulai posting ini tentang kemungkinan dapatkan "bias dan bias" dalam hasil AI, sebaiknya Anda kemudian menjelajahi posting terkait sebelumnya dengan yang sama:

Merlin dan Translaite: 2 alat untuk menggunakan ChatGPT di Linux
Artikel terkait:
Merlin dan Translaite: 2 alat untuk menggunakan ChatGPT di Linux

Prasangka dan bias: dapatkah terjadi pada hasil AI?

Prasangka dan bias: dapatkah terjadi pada hasil AI?

Tentang prasangka dan bias dalam hasil AI

Secara pribadi, akhir-akhir ini saya telah mencoba dan merekomendasikan beberapa alat kecerdasan buatan, yang pasti banyak yang didasarkan pada penggunaan ChatBot yang disebut BukaAI ChatGPT. Dan saya tidak punya masalah besar dengan hasil yang salah, tidak akurat, palsu, atau tidak pantas atau menyinggung. Namun, dalam waktu singkat ini telah mengudara, banyak dari kita pasti telah membaca tentang situasi yang tidak menyenangkan dan bahkan tidak dapat diterima, tentang hasil yang dihasilkan oleh mereka.

Misalnya, a kasus terbaru dari hasil yang salah atau tidak akurat Itu yang terbaru dari ChatBot Bard Google. Ketika, kasus lama hasil yang tidak menyenangkan atau ofensif Saat itulah Microsoft meluncurkan Tay, chatbot kecerdasan buatan, di platform jejaring sosial Twitter, yang, setelah 16 jam beroperasi, chatbot menerbitkan ribuan tweet, yang pada akhirnya menjadi rasis, misoginis, dan anti-Semit secara terbuka.

Namun, saya perhatikan di Internet, bukan hasil yang ramah atau menyenangkan, terutama ketika gambar dibuat tentang sekelompok orang atau orang tertentu. Oleh karena itu, saya berpikir bahwa prasangka dan bias manusia juga dapat hadir dalam perangkat lunak AI. Dan mungkin ini bisa terjadi ketika data yang digunakan untuk melatih perangkat lunak AI bias, atau ketika perangkat lunak dirancang dengan mempertimbangkan serangkaian nilai atau kepercayaan tertentu dari kelompok tertentu.

Karena, berkali-kali, dalam berbagai tahap perkembangannya, Mereka biasanya dirancang menggunakan data mayoritas dari beberapa kelompok demografis atau menang atas orang lain, atau dengan parameter untuk menghindari mempengaruhi kelompok kekuasaan atau memihak kelompok penting masyarakat.

Kemungkinan tindakan untuk menghindarinya

Kemungkinan tindakan untuk menghindarinya

Untuk menghindari prasangka dan bias dalam perangkat lunak AI, harus selalu diambil oleh pengembangnya, langkah-langkah seperti:

  1. Pastikan bahwa data yang digunakan untuk melatih perangkat lunak AI mewakili populasi yang akan digunakan, dan bahwa nilai atau keyakinan yang tertanam dalam perangkat lunak sesuai dengan tujuannya.
  2. Terapkan langkah-langkah keragaman, inklusi, dan keadilan (DIF) untuk membantu mengurangi bias dalam perangkat lunak AI. Sedemikian rupa sehingga tidak mendiskriminasi orang atau kelompok tertentu.

Sementara, Pengguna AI harus memiliki aturan mendasar:

  1. Berhati-hati saat membuat keputusan berdasarkan perangkat lunak AI, atau saat menyusun pekerjaan, barang, produk, dan layanan dengan hasilnya.
  2. Selalu, mereka harus mempertimbangkan potensi prasangka dan bias AI, serta kesalahan dan ketidakakuratan dalam data yang ditawarkan, sebelum membuat keputusan tentang penggunaannya.
ChatGPT di Linux: Klien Desktop dan Peramban Web
Artikel terkait:
ChatGPT di Linux: Klien Desktop dan Peramban Web

Spanduk abstrak untuk posting

ringkasan

Singkatnya, organisasi dan individu harus berusaha untuk menginformasikan diri mereka sendiri potensi “bias dan bias” perangkat lunak AI dan cara menghindarinya. Dan para pengembang melakukan segala yang mereka bisa untuk menghindarinya, untuk memastikan bahwa Perangkat lunak AI digunakan secara bertanggung jawab dan adil.

Juga, ingat, kunjungi awal kami «situs», selain saluran resmi Telegram untuk lebih banyak berita, tutorial, dan pembaruan Linux. Barat kelompok, untuk informasi lebih lanjut tentang topik hari ini.


tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.