דעות קדומות והטיות בתוצאות של בינה מלאכותית

דעות קדומות והטיות בתוצאות של בינה מלאכותית

דעות קדומות והטיות בתוצאות של בינה מלאכותית

עד כה השנה, הכנו כמה פוסטים הקשורים לבינה מלאכותית, הקשר שלו עם תוכנה חופשית וקוד פתוח, וכיצד אנחנו יכולים להשתמש בהם ב- מערכות הפעלה חינמיות ופתוחות המבוססות על GNU/Linux. לכן, היום נעסוק בנושא מעניין נוסף עליהם.

וזהו, על האפשרות של להשיג "דעות קדומות והטיות" בתוצאות של בינה מלאכותית. מכיוון שלמרות שבינה מלאכותית היא בדרך כלל מאוד שימושית, הודות לעובדה שהם יכולים להפיק תוצאות מאוד מדויקות, אלה יכולים להכיל הטיות אידיאולוגיות אנושיות, אם לא יינקטו אמצעי הזהירות או האמצעים הדרושים.

Merlin ו-Translaite: 2 כלים לשימוש ב-ChatGPT בלינוקס

Merlin ו-Translaite: 2 כלים לשימוש ב-ChatGPT בלינוקס

אבל, לפני שמתחילים את הפוסט הזה על האפשרות של לקבל "הטיה והטיה" בתוצאות בינה מלאכותית, אנו ממליצים לאחר מכן לחקור את פוסט קשור קודם עם אותו הדבר:

Merlin ו-Translaite: 2 כלים לשימוש ב-ChatGPT בלינוקס
Artaculo relacionado:
Merlin ו-Translaite: 2 כלים לשימוש ב-ChatGPT בלינוקס

דעות קדומות והטיות: האם הן יכולות להתרחש בתוצאות של AI?

דעות קדומות והטיות: האם הן יכולות להתרחש בתוצאות של AI?

על דעות קדומות והטיות בתוצאות של AI

באופן אישי, לאחרונה ניסיתי והמלצתי על כמה כלי בינה מלאכותית, שבוודאי רבים מבוססים על השימוש ב-ChatBot שנקרא OpenAI ChatGPT. ולא היו לי בעיות רציניות איתה תוצאות שגויות, לא מדויקות, שקריות או לא הולמות או פוגעניות. עם זאת, בזמן הקצר שאלו היו באוויר, רבים מאיתנו בוודאי קראו על מצבים לא נעימים ואפילו לא מקובלים, על התוצאות שנוצרו מהם.

לדוגמא, א מקרה אחרון של תוצאות שגויות או לא מדויקות זה היה האחרון מ-ChatBot Bard של גוגל. בזמן, מקרה ישן של תוצאות לא נעימות או פוגעניות זה היה, כאשר מיקרוסופט השיקה את Tay, צ'אט בוט של בינה מלאכותית, בפלטפורמת הרשת החברתית Twitter, אשר לאחר 16 שעות פעילות, הצ'אט בוט פרסם אלפי ציוצים, שבסופו של דבר הפכו לגזענים, מיזוגיניים ואנטישמיים בגלוי.

עם זאת, שמתי לב לתוצאות לא ידידותיות או נעימות באינטרנט, במיוחד כאשר נוצרות תמונות על קבוצות של אנשים או אנשים ספציפיים. לכן, אני חושב שכן דעות קדומות והטיות אנושיות יכולות להיות נוכחות גם בתוכנת AI. ושאולי זה יכול לקרות כאשר הנתונים המשמשים לאימון תוכנת הבינה המלאכותית מוטים, או כאשר התוכנה מתוכננת מתוך מחשבה על סט מסוים של ערכים או אמונות של קבוצות מסוימות.

מאז, פעמים רבות, בשלבי התפתחותו השונים, הם מתוכננים בדרך כלל באמצעות נתוני רוב מקבוצה דמוגרפית כלשהי או לגבור על אחרים, או עם פרמטרים כדי להימנע מלהשפיע על קבוצות כוח או להעדיף קבוצות חשובות בחברה.

אמצעים אפשריים להימנע מכך

אמצעים אפשריים להימנע מכך

כדי למנוע דעות קדומות והטיות בתוכנת AI, חייבים תמיד לנקוט על ידי מפתחיו, אמצעים כגון:

  1. ודא שהנתונים המשמשים לאימון תוכנת הבינה המלאכותית מייצגים את האוכלוסייה שעבורה היא תשמש, ושהערכים או האמונות המוטמעים בתוכנה מתאימים למטרה.
  2. יישם אמצעי גיוון, הכללה והגינות (DIF) כדי לסייע בהפחתת הטיה בתוכנת AI. בצורה כזו שהיא לא מפלה אנשים או קבוצות מסוימות.

בזמן, למשתמשי AI צריך להיות ככלל בסיסי:

  1. זהירות בעת קבלת החלטות המבוססות על תוכנת AI, או בעת יצירת עבודות, סחורות, מוצרים ושירותים עם התוצאות שלה.
  2. תמיד, הם צריכים לקחת בחשבון את הפוטנציאל לדעות קדומות והטיות של AI, ולטעויות ואי דיוקים בנתונים המוצעים, לפני שהם מקבלים החלטה לגבי השימוש בו.
ChatGPT בלינוקס: לקוחות שולחניים ודפדפני אינטרנט
Artaculo relacionado:
ChatGPT בלינוקס: לקוחות שולחניים ודפדפני אינטרנט

באנר מופשט לפוסט

תקציר

לסיכום, ארגונים ויחידים צריכים לשאוף ליידע את עצמם לגבי הפוטנציאל ל"הטיה והטיה" של תוכנת AI וכיצד להימנע מכך. והמפתחים עושים כל שביכולתם כדי להימנע מכך, על מנת להבטיח כי תוכנת AI משמשת בצורה אחראית והוגנת.

כמו כן, זכור, בקר בתחילת שלנו «אתר», בנוסף לערוץ הרשמי של מברק לעוד חדשות, מדריכים ועדכוני לינוקס. מַעֲרָב קבוצה, למידע נוסף על הנושא של היום.


השאירו את התגובה שלכם

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *

*

*

  1. אחראי לנתונים: מיגל אנחל גטון
  2. מטרת הנתונים: בקרת ספאם, ניהול תגובות.
  3. לגיטימציה: הסכמתך
  4. מסירת הנתונים: הנתונים לא יועברו לצדדים שלישיים אלא בהתחייבות חוקית.
  5. אחסון נתונים: מסד נתונים המתארח על ידי Occentus Networks (EU)
  6. זכויות: בכל עת תוכל להגביל, לשחזר ולמחוק את המידע שלך.