Prasangka dan berat sebelah dalam hasil Kepintaran Buatan

Prasangka dan berat sebelah dalam hasil Kepintaran Buatan

Prasangka dan berat sebelah dalam hasil Kepintaran Buatan

Setakat tahun ini, kami telah membuat beberapa jawatan yang berkaitan dengan Kepintaran Buatan, hubungannya dengan Perisian Percuma dan Sumber Terbuka, dan cara kami boleh menggunakannya pada kami sistem pengendalian percuma dan terbuka berdasarkan GNU/Linux. Oleh itu, hari ini kita akan membincangkan satu lagi topik menarik tentang mereka.

Dan ini, tentang kemungkinan mendapatkan «prasangka dan berat sebelah» dalam hasil Kepintaran Buatan. Memandangkan, walaupun AI biasanya sangat berguna, terima kasih kepada fakta bahawa ia boleh menghasilkan keputusan yang sangat tepat, ini boleh mengandungi berat sebelah ideologi manusia, jika langkah berjaga-jaga atau langkah yang perlu tidak diambil.

Merlin dan Translaite: 2 alatan untuk menggunakan ChatGPT di Linux

Merlin dan Translaite: 2 alatan untuk menggunakan ChatGPT di Linux

Tetapi, sebelum memulakan catatan ini tentang kemungkinan dapatkan "berat sebelah dan berat sebelah" dalam hasil AI, kami mengesyorkan anda kemudian meneroka jawatan berkaitan sebelumnya dengan yang sama:

Merlin dan Translaite: 2 alatan untuk menggunakan ChatGPT di Linux
artikel berkaitan:
Merlin dan Translaite: 2 alatan untuk menggunakan ChatGPT di Linux

Prasangka dan berat sebelah: bolehkah ia berlaku dalam keputusan AI?

Prasangka dan berat sebelah: bolehkah ia berlaku dalam keputusan AI?

Mengenai prasangka dan berat sebelah dalam keputusan AI

Secara peribadi, kebelakangan ini saya telah mencuba dan mengesyorkan beberapa alat kecerdasan buatan, yang pastinya banyak berdasarkan penggunaan ChatBot yang dipanggil OpenAI ChatGPT. Dan saya tidak mempunyai sebarang masalah besar keputusan yang salah, tidak tepat, palsu atau tidak sesuai atau menyinggung perasaan. Walau bagaimanapun, dalam masa yang singkat ini telah disiarkan, ramai di antara kita pasti telah membaca tentang situasi yang tidak menyenangkan dan juga tidak boleh diterima, tentang keputusan yang dihasilkan oleh mereka.

Sebagai contoh, a kes terkini keputusan yang salah atau tidak tepat Ia adalah yang terbaru daripada ChatBot Bard Google. manakala, kes lama hasil yang tidak menyenangkan atau menyinggung perasaan Ia adalah, apabila Microsoft melancarkan Tay, sebuah chatbot kecerdasan buatan, pada platform rangkaian sosial Twitter, yang, selepas 16 jam beroperasi, chatbot menerbitkan beribu-ribu tweet, yang akhirnya menjadi secara terbuka perkauman, misoginis dan anti-Semitik.

Walau bagaimanapun, saya perhatikan di Internet, hasil yang tidak mesra atau menyenangkan, terutamanya apabila imej dijana tentang kumpulan orang atau orang tertentu. Oleh itu, saya berpendapat bahawa prasangka dan berat sebelah manusia juga boleh terdapat dalam perisian AI. Dan mungkin ini boleh berlaku apabila data yang digunakan untuk melatih perisian AI adalah berat sebelah, atau apabila perisian itu direka dengan set nilai atau kepercayaan tertentu kumpulan tertentu dalam fikiran.

Oleh kerana, banyak kali, dalam pelbagai peringkat perkembangannya, Mereka biasanya direka menggunakan data majoriti daripada beberapa kumpulan demografi atau mengatasi orang lain, atau dengan parameter untuk mengelak menjejaskan kumpulan kuasa atau memihak kepada kumpulan masyarakat yang penting.

Langkah-langkah yang mungkin untuk mengelakkannya

Langkah-langkah yang mungkin untuk mengelakkannya

Untuk mengelakkan prasangka dan berat sebelah dalam perisian AI, mesti sentiasa diambil oleh pembangunnya, langkah-langkah seperti:

  1. Pastikan data yang digunakan untuk melatih perisian AI mewakili populasi yang akan digunakan, dan nilai atau kepercayaan yang tertanam dalam perisian sesuai untuk tujuan.
  2. Laksanakan langkah kepelbagaian, kemasukan dan keadilan (DIF) untuk membantu mengurangkan berat sebelah dalam perisian AI. Dengan cara yang tidak mendiskriminasi orang atau kumpulan tertentu.

Semasa, Pengguna AI sepatutnya mempunyai sebagai peraturan asas:

  1. Berhati-hati apabila membuat keputusan berdasarkan perisian AI, atau semasa membuat kerja, barangan, produk dan perkhidmatan dengan hasilnya.
  2. Sentiasa, mereka harus mengambil kira potensi prasangka dan berat sebelah AI, dan untuk kesilapan dan ketidaktepatan dalam data yang ditawarkan, sebelum membuat keputusan tentang penggunaannya.
ChatGPT di Linux: Klien Desktop dan Penyemak Imbas Web
artikel berkaitan:
ChatGPT di Linux: Klien Desktop dan Penyemak Imbas Web

Sepanduk abstrak untuk siaran

Ringkasan

Secara ringkasnya, organisasi dan individu harus berusaha untuk memaklumkan diri mereka tentang potensi "bias dan berat sebelah" perisian AI dan cara mengelakkannya. Dan pemaju melakukan segala yang mereka boleh untuk mengelakkannya, untuk memastikan bahawa Perisian AI digunakan secara bertanggungjawab dan adil.

Juga, ingat, melawat permulaan kami «tapak», sebagai tambahan kepada saluran rasmi Telegram untuk lebih banyak berita, tutorial dan kemas kini Linux. Barat kumpulan, untuk maklumat lanjut tentang topik hari ini.


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab atas data: Miguel Ángel Gatón
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.