Cho đến nay trong năm nay, chúng tôi đã thực hiện một số Bài viết liên quan Trí tuệ nhân tạo, mối quan hệ của nó với Phần mềm Tự do và Nguồn Mở, và cách chúng tôi có thể sử dụng chúng trên hệ điều hành mở và miễn phí dựa trên GNU/Linux. Do đó, hôm nay chúng ta sẽ đề cập đến một chủ đề thú vị khác về chúng.
Và đây là, về khả năng của có được «thành kiến và thành kiến» trong kết quả của Trí tuệ nhân tạo. Bởi vì, mặc dù AI thường rất hữu ích, nhờ thực tế là chúng có thể tạo ra kết quả rất chính xác, nhưng chúng có thể chứa đựng những thành kiến về ý thức hệ của con người, nếu không thực hiện các biện pháp phòng ngừa hoặc biện pháp cần thiết.
Nhưng, trước khi bắt đầu bài đăng này về khả năng nhận được "sự thiên vị và sai lệch" trong kết quả AI, chúng tôi khuyên bạn sau đó khám phá bài liên quan trước với cùng:
Định kiến và thành kiến: chúng có thể xảy ra trong kết quả của AI không?
Về định kiến và thành kiến trong kết quả của AI
Cá nhân, gần đây tôi đã thử và giới thiệu một vài công cụ trí tuệ nhân tạo, rất chắc chắn nhiều thứ dựa trên việc sử dụng ChatBot được gọi là OpenAI ChatGPT. Và tôi đã không có bất kỳ vấn đề lớn với kết quả sai, không chính xác, sai hoặc không phù hợp hoặc gây khó chịu. Tuy nhiên, trong một thời gian ngắn những điều này được phát sóng, nhiều người trong chúng ta chắc chắn đã đọc về những tình huống khó chịu và thậm chí không thể chấp nhận được, về kết quả do chúng tạo ra.
Ví dụ: trường hợp gần đây của kết quả sai hoặc không chính xác Đó là cái gần đây từ ChatBot Bard của Google. Trong khi, một trường hợp cũ của kết quả khó chịu hoặc gây khó chịu Đó là, khi Microsoft ra mắt Tay, một chatbot trí tuệ nhân tạo, trên nền tảng mạng xã hội Twitter, sau 16 giờ hoạt động, chatbot này đã đăng hàng nghìn tweet, cuối cùng trở thành công khai phân biệt chủng tộc, coi thường phụ nữ và bài Do Thái.
Tuy nhiên, tôi đã nhận thấy trên Internet, kết quả không thân thiện hoặc dễ chịu, đặc biệt là khi hình ảnh được tạo về các nhóm người hoặc những người cụ thể. Vì vậy, tôi nghĩ rằng định kiến và thành kiến của con người cũng có thể hiện diện trong phần mềm AI. Và có lẽ điều này có thể xảy ra khi dữ liệu được sử dụng để đào tạo phần mềm AI bị sai lệch hoặc khi phần mềm được thiết kế với một bộ giá trị hoặc niềm tin cụ thể của một số nhóm nhất định.
Bởi vì, nhiều lần, trong các giai đoạn phát triển khác nhau của nó, Chúng thường được thiết kế bằng cách sử dụng dữ liệu đa số từ một số nhóm nhân khẩu học hoặc chiếm ưu thế hơn những người khác, hoặc với các thông số để tránh ảnh hưởng đến các nhóm quyền lực hoặc ủng hộ các nhóm quan trọng của xã hội.
Các biện pháp có thể để tránh nó
Để tránh định kiến và thiên vị trong phần mềm AI, luôn phải được thực hiện bởi các nhà phát triển của nó, các biện pháp như:
- Đảm bảo rằng dữ liệu được sử dụng để đào tạo phần mềm AI là đại diện cho dân số mà nó sẽ được sử dụng và các giá trị hoặc niềm tin được nhúng trong phần mềm phù hợp với mục đích.
- Thực hiện các biện pháp đa dạng, hòa nhập và công bằng (DIF) để giúp giảm sự thiên vị trong phần mềm AI. Theo cách mà nó không phân biệt đối xử với những người hoặc nhóm nhất định.
Trong khi, Người dùng AI nên có quy tắc cơ bản:
- Thận trọng khi đưa ra quyết định dựa trên phần mềm AI hoặc khi tạo công việc, hàng hóa, sản phẩm và dịch vụ với kết quả của nó.
- Họ luôn luôn phải tính đến khả năng gây ra thành kiến và thiên vị của AI, cũng như các lỗi và sự không chính xác trong dữ liệu được cung cấp, trước khi đưa ra quyết định về việc sử dụng nó.
tóm lại
Tóm lại, các tổ chức và cá nhân nên cố gắng tự cung cấp thông tin về khả năng “thiên vị, thiên vị” của phần mềm AI và cách phòng tránh. Và các nhà phát triển làm mọi thứ có thể để tránh nó, để đảm bảo rằng Phần mềm AI được sử dụng có trách nhiệm và công bằng.
Ngoài ra, hãy nhớ, hãy truy cập phần đầu của «nơi», ngoài kênh chính thức của Telegram để biết thêm tin tức, hướng dẫn và cập nhật Linux. hướng Tây nhóm, để biết thêm thông tin về chủ đề hôm nay.