Προκαταλήψεις και προκαταλήψεις στα αποτελέσματα της Τεχνητής Νοημοσύνης

Προκαταλήψεις και προκαταλήψεις στα αποτελέσματα της Τεχνητής Νοημοσύνης

Προκαταλήψεις και προκαταλήψεις στα αποτελέσματα της Τεχνητής Νοημοσύνης

Μέχρι στιγμής φέτος, έχουμε φτιάξει μερικά δημοσιεύσεις που σχετίζονται με την Τεχνητή Νοημοσύνη, τη σχέση του με το Ελεύθερο Λογισμικό και τον Ανοιχτό Κώδικα και πώς μπορούμε να τα χρησιμοποιήσουμε στο δικό μας δωρεάν και ανοιχτά λειτουργικά συστήματα βασισμένα στο GNU/Linux. Ως εκ τούτου, σήμερα θα αναφερθούμε σε ένα άλλο ενδιαφέρον θέμα σχετικά με αυτά.

Και αυτό είναι, για τη δυνατότητα αποκτήσουν «προκαταλήψεις και προκαταλήψεις» στα αποτελέσματα της Τεχνητής Νοημοσύνης. Εφόσον, αν και η τεχνητή νοημοσύνη είναι συνήθως πολύ χρήσιμη, χάρη στο γεγονός ότι μπορεί να παράγει πολύ ακριβή αποτελέσματα, μπορεί να περιέχουν ανθρώπινες ιδεολογικές προκαταλήψεις, εάν δεν ληφθούν οι απαραίτητες προφυλάξεις ή μέτρα.

Merlin και Translaite: 2 εργαλεία για χρήση του ChatGPT σε Linux

Merlin και Translaite: 2 εργαλεία για χρήση του ChatGPT σε Linux

Αλλά, πριν ξεκινήσετε αυτήν την ανάρτηση σχετικά με τη δυνατότητα λάβετε "bias and bias" στα αποτελέσματα AI, σας συνιστούμε στη συνέχεια να εξερευνήσετε το προηγούμενη σχετική ανάρτηση με το ίδιο:

Merlin και Translaite: 2 εργαλεία για χρήση του ChatGPT σε Linux
σχετικό άρθρο:
Merlin και Translaite: 2 εργαλεία για χρήση του ChatGPT σε Linux

Προκαταλήψεις και προκαταλήψεις: μπορούν να εμφανιστούν στα αποτελέσματα της τεχνητής νοημοσύνης;

Προκαταλήψεις και προκαταλήψεις: μπορούν να εμφανιστούν στα αποτελέσματα της τεχνητής νοημοσύνης;

Σχετικά με τις προκαταλήψεις και τις προκαταλήψεις στα αποτελέσματα της ΤΝ

Προσωπικά, τελευταία έχω δοκιμάσει και προτείνω μερικά εργαλεία τεχνητής νοημοσύνης, το οποίο σίγουρα πολλοί βασίζονται στη χρήση του ChatBot που ονομάζεται OpenAI ChatGPT. Και δεν είχα κανένα σημαντικό πρόβλημα λανθασμένα, ανακριβή, ψευδή ή ακατάλληλα ή προσβλητικά αποτελέσματα. Ωστόσο, στο σύντομο χρονικό διάστημα που βγήκαν στον αέρα, πολλοί από εμάς σίγουρα έχουμε διαβάσει για δυσάρεστες έως και απαράδεκτες καταστάσεις, για τα αποτελέσματα που προκάλεσαν.

Για παράδειγμα, μια πρόσφατη περίπτωση λανθασμένων ή ανακριβών αποτελεσμάτων Ήταν το πρόσφατο από το ChatBot Bard της Google. Ενώ, μια παλιά περίπτωση δυσάρεστων ή προσβλητικών αποτελεσμάτων Ήταν όταν η Microsoft κυκλοφόρησε το Tay, ένα chatbot τεχνητής νοημοσύνης, στην πλατφόρμα κοινωνικής δικτύωσης Twitter, το οποίο, μετά από 16 ώρες λειτουργίας, το chatbot δημοσίευσε χιλιάδες tweets, τα οποία στο τέλος έγιναν ανοιχτά ρατσιστικά, μισογυνικά και αντισημιτικά.

Ωστόσο, έχω παρατηρήσει στο Διαδίκτυο, όχι φιλικά ή ευχάριστα αποτελέσματα, ειδικά όταν δημιουργούνται εικόνες για ομάδες ανθρώπων ή συγκεκριμένα άτομα. Ως εκ τούτου, νομίζω ότι Προκαταλήψεις και ανθρώπινες προκαταλήψεις μπορεί επίσης να υπάρχουν στο λογισμικό τεχνητής νοημοσύνης. Και ότι ίσως αυτό μπορεί να συμβεί όταν τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση του λογισμικού τεχνητής νοημοσύνης είναι προκατειλημμένα ή όταν το λογισμικό έχει σχεδιαστεί έχοντας κατά νου ένα συγκεκριμένο σύνολο αξιών ή πεποιθήσεων ορισμένων ομάδων.

Επειδή, πολλές φορές, στα διάφορα στάδια ανάπτυξής του, Συνήθως σχεδιάζονται χρησιμοποιώντας πλειοψηφικά δεδομένα από κάποια δημογραφική ομάδα ή επικρατούν έναντι άλλων, ή με παραμέτρους για την αποφυγή επηρεασμού ομάδων εξουσίας ή ευνοϊκής σημασίας ομάδων της κοινωνίας.

Πιθανά μέτρα για την αποφυγή του

Πιθανά μέτρα για την αποφυγή του

Για την αποφυγή προκατάληψης και μεροληψίας στο λογισμικό τεχνητής νοημοσύνης, πρέπει πάντα να λαμβάνονται από τους προγραμματιστές του, μέτρα όπως:

  1. Βεβαιωθείτε ότι τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση του λογισμικού AI είναι αντιπροσωπευτικά του πληθυσμού για τον οποίο θα χρησιμοποιηθεί και ότι οι αξίες ή οι πεποιθήσεις που είναι ενσωματωμένες στο λογισμικό είναι κατάλληλες για τον σκοπό.
  2. Εφαρμόστε μέτρα ποικιλομορφίας, ένταξης και δικαιοσύνης (DIF) για να συμβάλετε στη μείωση της μεροληψίας στο λογισμικό τεχνητής νοημοσύνης. Με τέτοιο τρόπο ώστε να μην κάνει διακρίσεις εις βάρος ορισμένων ατόμων ή ομάδων.

Ενώ, Οι χρήστες τεχνητής νοημοσύνης θα πρέπει να έχουν ως θεμελιώδη κανόνα:

  1. Να είστε προσεκτικοί όταν λαμβάνετε αποφάσεις με βάση το λογισμικό τεχνητής νοημοσύνης ή όταν δημιουργείτε εργασίες, αγαθά, προϊόντα και υπηρεσίες με τα αποτελέσματά του.
  2. Πάντα, θα πρέπει να λαμβάνουν υπόψη την πιθανότητα προκατάληψης και μεροληψίας της τεχνητής νοημοσύνης, καθώς και για σφάλματα και ανακρίβειες στα δεδομένα που προσφέρονται, προτού λάβουν απόφαση σχετικά με τη χρήση τους.
ChatGPT σε Linux: Επιτραπέζιοι πελάτες και προγράμματα περιήγησης Ιστού
σχετικό άρθρο:
ChatGPT σε Linux: Επιτραπέζιοι πελάτες και προγράμματα περιήγησης Ιστού

Αφηρημένο πανό για τη θέση

περίληψη

Συνοπτικά, οι οργανισμοί και τα άτομα θα πρέπει να προσπαθήσουν να ενημερωθούν σχετικά τη δυνατότητα «προκατάληψης και μεροληψίας» του λογισμικού τεχνητής νοημοσύνης και πώς να το αποφύγετε. Και οι προγραμματιστές κάνουν ό,τι μπορούν για να το αποφύγουν, προκειμένου να διασφαλίσουν ότι το Το λογισμικό AI χρησιμοποιείται υπεύθυνα και δίκαια.

Επίσης, θυμηθείτε, επισκεφθείτε την αρχή του μας «τοποθεσία», εκτός από το επίσημο κανάλι του Telegram για περισσότερα νέα, σεμινάρια και ενημερώσεις Linux. δυτικά ομάδα, για περισσότερες πληροφορίες σχετικά με το σημερινό θέμα.


Αφήστε το σχόλιό σας

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται με *

*

*

  1. Υπεύθυνος για τα δεδομένα: Miguel Ángel Gatón
  2. Σκοπός των δεδομένων: Έλεγχος SPAM, διαχείριση σχολίων.
  3. Νομιμοποίηση: Η συγκατάθεσή σας
  4. Κοινοποίηση των δεδομένων: Τα δεδομένα δεν θα κοινοποιούνται σε τρίτους, εκτός από νομική υποχρέωση.
  5. Αποθήκευση δεδομένων: Βάση δεδομένων που φιλοξενείται από τα δίκτυα Occentus (ΕΕ)
  6. Δικαιώματα: Ανά πάσα στιγμή μπορείτε να περιορίσετε, να ανακτήσετε και να διαγράψετε τις πληροφορίες σας.