Το Κέντρο Εφαρμοσμένης Δεοντολογίας Δεδομένων προτείνει την αντιμετώπιση της τεχνητής νοημοσύνης ως γραφειοκρατίας

Το Κέντρο Εφαρμοσμένης Δεοντολογίας Δεδομένων προτείνει την αντιμετώπιση της τεχνητής νοημοσύνης ως γραφειοκρατίας


Ένα πρόσφατο άρθρο από το Κέντρο Εφαρμοσμένης Δεοντολογίας Δεδομένων (CADE) του Πανεπιστημίου του Σαν Φρανσίσκο παροτρύνει τους επαγγελματίες της AI να υιοθετήσουν όρους από την ανθρωπολογία όταν εξετάζουν την απόδοση μεγάλων μοντέλων μηχανικής μάθησης. Η έρευνα προτείνει τη χρήση αυτής της ορολογίας για ανάκριση και ανάλυση της γραφειοκρατίας, των πολιτειών και των δομών εξουσίας, προκειμένου να αξιολογηθεί κριτικά η απόδοση μεγάλων μοντέλων μηχανικής μάθησης με τη δυνατότητα να βλάψουν τους ανθρώπους.

“Αυτό το έγγραφο επικεντρώνει τη δύναμη ως ένας από τους παράγοντες με τους οποίους οι σχεδιαστές πρέπει να αναγνωρίσουν και να αγωνιστούν, μαζί με τις συνεχιζόμενες συζητήσεις σχετικά με την προκατάληψη στα δεδομένα και τον κώδικα, για να κατανοήσουν γιατί τα αλγοριθμικά συστήματα τείνουν να γίνουν ανακριβή, παράλογα, επιβλαβή και καταπιεστικά. Το έγγραφο πλαισιώνει το τεράστιο αλγοριθμικά συστήματα που βλάπτουν περιθωριοποιημένες ομάδες ως λειτουργικά παρόμοια με τις τεράστιες και εκτεταμένες διοικητικές καταστάσεις που περιγράφει ο James Scott Δείτε το ως κράτος“, Έγραψε ο συγγραφέας.

Το έγγραφο γράφτηκε από τον συνάδελφο του CADE Ali Alkhatib, με επικεφαλής τη διευθύντρια Rachel Thomas και τους συναδέλφους CADE Nana Young και Razvan Amironesei.

Οι ερευνητές εξετάζουν συγκεκριμένα το έργο του James Scott, ο οποίος εξέτασε την αλαζονεία στον διοικητικό σχεδιασμό και τα κοινωνικοτεχνικά συστήματα. Στην Ευρώπη, το 1800, για παράδειγμα, οι εταιρείες βιομηχανίας ξύλου άρχισαν να χρησιμοποιούν συντομευμένους χάρτες και ένα πεδίο που ονομάζεται «επιστημονική δασοκομία» για να πραγματοποιήσουν φύτευση μονοκαλλιέργειας σε πλέγματα. Αν και η πρακτική έχει οδηγήσει σε ορισμένες περιπτώσεις σε υψηλότερες αρχικές αποδόσεις, η παραγωγικότητα έχει μειωθεί δραματικά στη δεύτερη γενιά, υπογραμμίζοντας την εγκυρότητα των επιστημονικών αρχών που προάγουν την ποικιλομορφία. Όπως αυτοί οι συντομευμένοι χάρτες, υποστηρίζει ο Alkhatib, οι αλγόριθμοι μπορούν να συνοψίσουν και να μεταμορφώσουν τον κόσμο και αποτελούν μια έκφραση της διαφοράς μεταξύ των εμπειριών των ανθρώπων και των γραφειοκρατιών που βλέπουν ή δεν βλέπουν.

Το έγγραφο με τίτλο “Ζώντας στην ουτοπία τους: γιατί τα αλγοριθμικά συστήματα δημιουργούν παράλογα αποτελέσματα, “Δημοσιεύτηκε πρόσφατα και έγινε δεκτό από το συνέδριο ACM για τους ανθρώπινους παράγοντες στα συστήματα υπολογιστών (CHI), το οποίο θα πραγματοποιηθεί τον Μάιο.

Υπενθυμίζοντας την ανάλυση του Scott για τα κράτη, ο Alkhatib προειδοποιεί για τη ζημία που μπορεί να προκληθεί από την απρόσκοπτη τεχνητή νοημοσύνη, συμπεριλαμβανομένης της διοικητικής και υπολογιστικής αναδιοργάνωσης της κοινωνίας, της εξασθενημένης κοινωνίας των πολιτών και της άνοδος ενός αυταρχικού κράτους. Ο Alkhatib σημειώνει ότι τέτοιοι αλγόριθμοι μπορούν να παρερμηνεύσουν και να τιμωρήσουν περιθωριοποιημένες ομάδες των οποίων οι εμπειρίες βρίσκονται εκτός των ορίων των δεδομένων που θεωρούνται ότι εκπαιδεύουν ένα μοντέλο.

Άτομα που έχουν αρκετά προνόμια για να θεωρηθούν ως ελάττωμα από επιστήμονες δεδομένων και που δεν επηρεάζονται άμεσα από αλγοριθμική μεροληψία και άλλες βλάβες μπορεί να θεωρήσουν την υποεκπροσώπηση της φυλής ή του φύλου ως άσχετη. Φεμινισμός δεδομένων συγγραφείς Catherine D’Ignazio και Lauren Klein Περιγράψτε το ως “κίνδυνος προνομίων. “Όπως είπε ο Άλκατιμπ,” άλλοι άνθρωποι πρέπει να αναγνωρίσουν ότι η φυλή, το φύλο, η εμπειρία της αναπηρίας τους ή άλλες διαστάσεις της ζωής τους επηρεάζουν άρρηκτα τον τρόπο με τον οποίο βιώνουν τον κόσμο. “

Προειδοποιεί επίσης ενάντια στην άκριτη αποδοχή της υπόσχεσης για έναν καλύτερο κόσμο από το AI.

“Τα AI προκαλούν τόσο μεγάλη βλάβη επειδή μας παροτρύνουν να ζήσουμε στην ουτοπία τους”, γράφει η εφημερίδα. «Το να δημιουργείς και να επιβάλλεις τη δική σου ουτοπία εναντίον της οποίας κρίνονται οι άνθρωποι είναι σκόπιμα υπονοούμενη. Η πρόθεσή μας είναι να τετραγωνιστούμε ως σχεδιαστές και συμμετέχοντες στα συστήματα ενάντια στην πραγματικότητα ότι ο κόσμος που οι επιστήμονες υπολογιστών έχουν συλλάβει στα δεδομένα είναι αυτός που παρακολουθεί, εξετάζει και αποκλείει τις ίδιες τις ομάδες που ερμηνεύει περισσότερο. Μας έρχεται σε αντίθεση με το γεγονός ότι οι άνθρωποι στους οποίους υποβάλλουμε αυτά τα συστήματα υφίστανται επανειλημμένα κακοποίηση, παρενόχληση και πραγματική βία ακριβώς επειδή δεν εμπίπτουν στο παραδειγματικό μοντέλο που το κράτος –και τώρα ο αλγόριθμος– έχει δημιουργήσει για να περιγράψει τον κόσμο ».

Ταυτόχρονα, το Alkhatib προειδοποιεί τους ανθρώπους να μην βλέπουν αναπόφευκτες μετατοπίσεις ισχύος που οδηγούνται από AI.

“Μπορούμε και πρέπει να αντιμετωπίσουμε πιο προσεκτικά τα μέρη που παίζουμε για την ενδυνάμωση αλγοριθμικών συστημάτων για τη δημιουργία των δικών τους μοντέλων του κόσμου, επιτρέποντας σε αυτά τα συστήματα να καταπατούν τους ανθρώπους που βλάπτουν και αποκλείοντας και περιορίζοντας την ανάκριση των συστημάτων που βλάπτουν” . συμμετέχουμε στην κατασκευή. “

Πιθανές λύσεις που προσφέρονται από την εφημερίδα περιλαμβάνουν υπονόμευση καταπιεστικών τεχνολογιών και καθοδήγηση από τον ερευνητή του Stanford AI Lab, Pratyusha Kalluri, ο οποίος συνιστά να ρωτήσετε εάν το AI αλλάζει τη δύναμηαντί να ικανοποιεί έναν επιλεγμένο αριθμητικό ορισμό του δικαιώματος ή του καλού. Ο Alkhatib τονίζει επίσης τη σημασία της ατομικής αντίστασης και της άρνησης συμμετοχής σε άδικα συστήματα για να τους αρνηθεί την εξουσία.

Άλλες πρόσφατες λύσεις περιλαμβάνουν μια πολιτιστική αλλαγή στη μηχανική όραση και το NLP, μείωση κλίμακαςκαι επενδύσεις σε μείωση της εξάρτησης από μεγάλα σύνολα δεδομένων που καθιστούν σχεδόν αδύνατο να γνωρίζουμε ποια δεδομένα χρησιμοποιούνται για την εκπαίδευση μοντέλων βαθιάς μάθησης. Εάν όχι, υποστηρίζουν οι ερευνητές, μια μικρή ομάδα ελίτ εταιρειών θα δημιουργήσει τεράστια μοντέλα AI GPT-3 από το OpenAI και το γλωσσικό μοντέλο με τρισεκατομμύρια παραμέτρους Η Google παρουσίασε στις αρχές του μήνα.

Η διεπιστημονική προσέγγιση του εγγράφου είναι επίσης σύμφωνη με ένα διαφορετικό σώμα εργασίας που έχουν δημιουργήσει οι ερευνητές τεχνητής νοημοσύνης τον τελευταίο χρόνο. Τον περασμένο μήνα, οι ερευνητές κυκλοφόρησαν το αρχείο πρώτες λεπτομέρειες για το OcéanIA, το οποίο θεωρεί ένα επιστημονικό έργο για τον προσδιορισμό των ειδών φυτοπλαγκτού ως πρόκληση για τη μηχανική μάθηση, την ωκεανογραφία και την επιστήμη. Άλλοι ερευνητές έχουν προτείνει μια διεπιστημονική προσέγγιση για την προώθηση των τομέων του μάθηση βαθιάς ενίσχυσης είναι Αξιολόγηση της προκατάληψης NLP.

Είδαμε επίσης την ανάλυση της τεχνητής νοημοσύνης που συνδυάζει την κοινωνιολογία και την κριτική θεωρία της φυλής AI αποικιακή, το οποίο απαιτεί την αναγνώριση του ιστορικού πλαισίου που σχετίζεται με την αποικιοκρατία για να κατανοήσουμε ποιες πρακτικές πρέπει να αποφεύγονται κατά την κατασκευή συστημάτων AI. Και η VentureBeat έχει γράψει πολλά για αυτό Η ηθική της τεχνητής νοημοσύνης αφορά την ισχύ.

Πέρυσι, μια ομάδα γνωστών μελών της ερευνητικής κοινότητας αλγοριθμικής μεροληψίας δημιούργησε ένα εσωτερικό πλαίσιο ελέγχου αλγορίθμου για να καλύψει τα κενά λογοδοσίας AI σε οργανισμούς. Αυτό το έργο ζητά από τους οργανισμούς να μάθουν από τους τομείς της αεροδιαστημικής, των χρηματοοικονομικών και ιατρικών συσκευών. Οι συν-συγγραφείς της εφημερίδας περιλαμβάνουν τη Margaret Mitchell και τον Timnit Gebru, οι οποίοι οδήγησαν από κοινού την ομάδα ηθικής AI της Google. Έκτοτε, η Google απέλυσε τον Gebru και, σύμφωνα με εκπρόσωπο της Google, ξεκίνησε έρευνα για τον Mitchell.

Με τον έλεγχο της προεδρίας και των δύο Βουλών του Κογκρέσου στις Ηνωμένες Πολιτείες, οι Δημοκρατικοί θα μπορούσαν να στραφούν σειρά θεμάτων πολιτικής τεχνολογίας τα επόμενα χρόνια, από νόμους που ρυθμίζουν τη χρήση της αναγνώρισης προσώπου από εταιρείες, κυβερνήσεις και υπηρεσίες επιβολής του νόμου έως αντιμονοπωλιακές ενέργειες για τον περιορισμό της Huge Tech. Ωστόσο, μια Γερουσία 50-50 σημαίνει ότι οι Δημοκρατικοί μπορεί να αναγκαστούν να εξετάσουν διμερείς ή μετριοπαθείς θέσεις για να ψηφίσουν νομοθεσία.

ο Η διοίκηση του Μπάιντεν τόνισε την υποστήριξη της διαφορετικότητας και της αηδίας με αλγοριθμικές προκαταλήψεις σε τηλεοπτική τελετή παρουσίασης της ομάδας επιστήμης και τεχνολογίας στις 16 Ιανουαρίου. Η Αντιπρόεδρος Καμάλα Χάρις έχει μίλησε επίσης παθιασμένα κατά της αλγοριθμικής προκατάληψης και αυτοματοποιημένες διακρίσεις. Στις πρώτες ώρες της διοίκησής του, ο Πρόεδρος Μπάιντεν υπέγραψε ένα εκτελεστική εντολή για την προώθηση της φυλετικής ισότητας που διατάσσει το Γραφείο Επιστήμης και Τεχνολογίας του Λευκού Οίκου (OSTP) να συμμετάσχει σε μια νεοσύστατη ομάδα εργασίας που έχει αναλάβει τη διάλυση κυβερνητικών δεδομένων. Αυτή η πρωτοβουλία βασίζεται εν μέρει στην ανησυχία ότι η αποτυχία ανάλυσης τέτοιων δεδομένων εμποδίζει τις προσπάθειες προώθησης της ισότητας.

VentureBeat

Η αποστολή της VentureBeat είναι να είναι ένα ψηφιακό τετράγωνο πόλης για τεχνικούς υπεύθυνους λήψης αποφάσεων για να αποκτήσουν πληροφορίες σχετικά με τη μετασχηματιστική τεχνολογία και τις συναλλαγές. Ο ιστότοπός μας παρέχει βασικές πληροφορίες σχετικά με τις τεχνολογίες δεδομένων και τις στρατηγικές για να σας καθοδηγήσει καθώς οδηγείτε τους οργανισμούς σας. Σας προσκαλούμε να γίνετε μέλος της κοινότητάς μας, για πρόσβαση:

  • ενημερωμένες πληροφορίες για θέματα που σας ενδιαφέρουν
  • τα ενημερωτικά δελτία μας
  • Περιεχόμενο περιφραγμένο με κορυφαία σκέψη και μειωμένη πρόσβαση στις πολύτιμες εκδηλώσεις μας, όπως το Completely transform
  • δυνατότητες δικτύωσης και άλλα

Γίνομαι μέλος



[via]