Định kiến ​​và thành kiến ​​trong kết quả của Trí tuệ nhân tạo

Định kiến ​​và thành kiến ​​trong kết quả của Trí tuệ nhân tạo

Định kiến ​​và thành kiến ​​trong kết quả của Trí tuệ nhân tạo

Cho đến nay trong năm nay, chúng tôi đã thực hiện một số Bài viết liên quan Trí tuệ nhân tạo, mối quan hệ của nó với Phần mềm Tự do và Nguồn Mở, và cách chúng tôi có thể sử dụng chúng trên hệ điều hành mở và miễn phí dựa trên GNU/Linux. Do đó, hôm nay chúng ta sẽ đề cập đến một chủ đề thú vị khác về chúng.

Và đây là, về khả năng của có được «thành kiến ​​và thành kiến» trong kết quả của Trí tuệ nhân tạo. Bởi vì, mặc dù AI thường rất hữu ích, nhờ thực tế là chúng có thể tạo ra kết quả rất chính xác, nhưng chúng có thể chứa đựng những thành kiến ​​về ý thức hệ của con người, nếu không thực hiện các biện pháp phòng ngừa hoặc biện pháp cần thiết.

Merlin và Translaite: 2 công cụ sử dụng ChatGPT trên Linux

Merlin và Translaite: 2 công cụ sử dụng ChatGPT trên Linux

Nhưng, trước khi bắt đầu bài đăng này về khả năng nhận được "sự thiên vị và sai lệch" trong kết quả AI, chúng tôi khuyên bạn sau đó khám phá bài liên quan trước với cùng:

Merlin và Translaite: 2 công cụ sử dụng ChatGPT trên Linux
Bài viết liên quan:
Merlin và Translaite: 2 công cụ sử dụng ChatGPT trên Linux

Định kiến ​​và thành kiến: chúng có thể xảy ra trong kết quả của AI không?

Định kiến ​​và thành kiến: chúng có thể xảy ra trong kết quả của AI không?

Về định kiến ​​và thành kiến ​​trong kết quả của AI

Cá nhân, gần đây tôi đã thử và giới thiệu một vài công cụ trí tuệ nhân tạo, rất chắc chắn nhiều thứ dựa trên việc sử dụng ChatBot được gọi là OpenAI ChatGPT. Và tôi đã không có bất kỳ vấn đề lớn với kết quả sai, không chính xác, sai hoặc không phù hợp hoặc gây khó chịu. Tuy nhiên, trong một thời gian ngắn những điều này được phát sóng, nhiều người trong chúng ta chắc chắn đã đọc về những tình huống khó chịu và thậm chí không thể chấp nhận được, về kết quả do chúng tạo ra.

Ví dụ: trường hợp gần đây của kết quả sai hoặc không chính xác Đó là cái gần đây từ ChatBot Bard của Google. Trong khi, một trường hợp cũ của kết quả khó chịu hoặc gây khó chịu Đó là, khi Microsoft ra mắt Tay, một chatbot trí tuệ nhân tạo, trên nền tảng mạng xã hội Twitter, sau 16 giờ hoạt động, chatbot này đã đăng hàng nghìn tweet, cuối cùng trở thành công khai phân biệt chủng tộc, coi thường phụ nữ và bài Do Thái.

Tuy nhiên, tôi đã nhận thấy trên Internet, kết quả không thân thiện hoặc dễ chịu, đặc biệt là khi hình ảnh được tạo về các nhóm người hoặc những người cụ thể. Vì vậy, tôi nghĩ rằng định kiến ​​và thành kiến ​​của con người cũng có thể hiện diện trong phần mềm AI. Và có lẽ điều này có thể xảy ra khi dữ liệu được sử dụng để đào tạo phần mềm AI bị sai lệch hoặc khi phần mềm được thiết kế với một bộ giá trị hoặc niềm tin cụ thể của một số nhóm nhất định.

Bởi vì, nhiều lần, trong các giai đoạn phát triển khác nhau của nó, Chúng thường được thiết kế bằng cách sử dụng dữ liệu đa số từ một số nhóm nhân khẩu học hoặc chiếm ưu thế hơn những người khác, hoặc với các thông số để tránh ảnh hưởng đến các nhóm quyền lực hoặc ủng hộ các nhóm quan trọng của xã hội.

Các biện pháp có thể để tránh nó

Các biện pháp có thể để tránh nó

Để tránh định kiến ​​và thiên vị trong phần mềm AI, luôn phải được thực hiện bởi các nhà phát triển của nó, các biện pháp như:

  1. Đảm bảo rằng dữ liệu được sử dụng để đào tạo phần mềm AI là đại diện cho dân số mà nó sẽ được sử dụng và các giá trị hoặc niềm tin được nhúng trong phần mềm phù hợp với mục đích.
  2. Thực hiện các biện pháp đa dạng, hòa nhập và công bằng (DIF) để giúp giảm sự thiên vị trong phần mềm AI. Theo cách mà nó không phân biệt đối xử với những người hoặc nhóm nhất định.

Trong khi, Người dùng AI nên có quy tắc cơ bản:

  1. Thận trọng khi đưa ra quyết định dựa trên phần mềm AI hoặc khi tạo công việc, hàng hóa, sản phẩm và dịch vụ với kết quả của nó.
  2. Họ luôn luôn phải tính đến khả năng gây ra thành kiến ​​và thiên vị của AI, cũng như các lỗi và sự không chính xác trong dữ liệu được cung cấp, trước khi đưa ra quyết định về việc sử dụng nó.
ChatGPT trên Linux: Máy khách để bàn và Trình duyệt web
Bài viết liên quan:
ChatGPT trên Linux: Máy khách để bàn và Trình duyệt web

Biểu ngữ trừu tượng cho bài đăng

tóm lại

Tóm lại, các tổ chức và cá nhân nên cố gắng tự cung cấp thông tin về khả năng “thiên vị, thiên vị” của phần mềm AI và cách phòng tránh. Và các nhà phát triển làm mọi thứ có thể để tránh nó, để đảm bảo rằng Phần mềm AI được sử dụng có trách nhiệm và công bằng.

Ngoài ra, hãy nhớ, hãy truy cập phần đầu của «nơi», ngoài kênh chính thức của Telegram để biết thêm tin tức, hướng dẫn và cập nhật Linux. hướng Tây nhóm, để biết thêm thông tin về chủ đề hôm nay.


Để lại bình luận của bạn

địa chỉ email của bạn sẽ không được công bố. Các trường bắt buộc được đánh dấu bằng *

*

*

  1. Chịu trách nhiệm về dữ liệu: Miguel Ángel Gatón
  2. Mục đích của dữ liệu: Kiểm soát SPAM, quản lý bình luận.
  3. Hợp pháp: Sự đồng ý của bạn
  4. Truyền thông dữ liệu: Dữ liệu sẽ không được thông báo cho các bên thứ ba trừ khi có nghĩa vụ pháp lý.
  5. Lưu trữ dữ liệu: Cơ sở dữ liệu do Occentus Networks (EU) lưu trữ
  6. Quyền: Bất cứ lúc nào bạn có thể giới hạn, khôi phục và xóa thông tin của mình.