Η Google απολύει τη Μαργαρίτα Μίτσελ, επικεφαλής της ηθικής τεχνητής νοημοσύνης

Η Google απολύει τη Μαργαρίτα Μίτσελ, επικεφαλής της ηθικής τεχνητής νοημοσύνης


Σήμερα η Google απέλυσε τη Μαργαρίτα “Meg” Mitchell, επικεφαλής της ομάδας Ethical AI. Η κίνηση έρχεται λίγες ώρες μετά την ανακοίνωση της Google για αλλαγές στην πολιτική της για την ποικιλομορφία και ο επικεφαλής της Google AI Jeff Dean έστειλε συγγνώμη μετά την απόλυση πρώην επικεφαλής δεοντολογίας της Google AI Timnit Gebru στο τέλος του 2020.

Ο Mitchell, ερευνητής προσωπικού και υπάλληλος της Google από το 2016, είχε υποβληθεί σε α Εσωτερική έρευνα της Google για πέντε εβδομάδες. Σε ένα αρχείο ΗΛΕΚΤΡΟΝΙΚΗ ΔΙΕΥΘΥΝΣΗ Εστάλη στην Google λίγο πριν από τη διερεύνηση του Mitchell, ο Mitchell κάλεσε την Google να απολύει τον Gebru “για πάντα μετά από μια πραγματικά, πραγματικά, πολύ τρομερή απόφαση.”

Μια δήλωση εκπροσώπου της Google για τον Μίτσελ αναφέρει: “Αφού εξετάσαμε τη συμπεριφορά αυτού του διευθυντή, επιβεβαιώσαμε ότι υπήρξαν πολλές παραβιάσεις του κώδικα συμπεριφοράς μας, καθώς και των πολιτικών ασφαλείας μας, οι οποίες περιελάμβαναν την αποβολή εγγράφων και προσωπικών δεδομένων άλλων υπαλλήλων. “

Όταν της ζητήθηκε να σχολιάσει, η Μαργαρίτα αρνήθηκε, χαρακτηρίζοντας τη διάθεσή της ως «μπερδεμένη και επώδυνη».

Ο Μίτσελ ήταν μέλος του πρόσφατα ιδρύθηκε το Alphabet Employees Union. Ο Γκεμπρού το πρότεινε νωρίτερα η προστασία της ένωσης θα μπορούσε να είναι ένας τρόπος για ερευνητές τεχνητής νοημοσύνης για να προστατεύσει τον εαυτό του από αντίποινα όπως αυτά που αντιμετώπισε όταν μια ερευνητική εργασία που συνέγραψε επανεξετάστηκε πέρυσι.

Πριν από σήμερα, Ο Ντιν ζήτησε συγγνώμη εάν οι μαύροι και οι εργαζόμενοι τραυματίστηκαν από την απόλυση Γκέμπρου. Πρόσθετες αλλαγές στην πολιτική ποικιλομορφίας της Google ανακοινώθηκαν επίσης σήμερα, συμπεριλαμβανομένης της σύνδεσης στόχων DEI με βαθμολογίες απόδοσης για υπαλλήλους σε VP και άνω.

Την Πέμπτη, Η Google έχει αναδιαρθρώσει τις προσπάθειές της για την ηθική AI Αυτό φέρνει 10 ομάδες στο Google Investigate, συμπεριλαμβανομένης της ομάδας Ethical AI, υπό την ηγεσία του Google VP Marian Croak. Ο Croak θα αναφέρει απευθείας στον Dean. Σε ένα μήνυμα βίντεο, ο Croak ζήτησε περισσότερες “διπλωματικές” συνομιλίες για να αντιμετωπίσει τους τρόπους με τους οποίους η AI μπορεί να βλάψει τους ανθρώπους. Αρκετά μέλη της ομάδας Moral AI δήλωσαν ότι ανακάλυψαν την αναδιάρθρωση στον τύπο.

“Η Marian είναι ένας πολύ ταλαντούχος πρωτοπόρος επιστήμονας στον οποίο θαύμαζα και μάλιστα εμπιστεύτηκα. Είναι απίστευτα οδυνηρό να την βλέπει να νομιμοποιεί τι έκαναν ο Jeff Dean και οι υφισταμένοι του σε μένα και την ομάδα μου”, δήλωσε ο Gebru στην VentureBeat για την απόφαση την Πέμπτη.

Ο Mitchell και ο Gebru συνεργάστηκαν για να ηγηθούν της ομάδας Moral AI το 2018, δημιουργώντας τελικά αυτό που πιστεύεται ότι είναι ένα από τα πιο διαφορετικά τμήματα της Google Analysis. Η ομάδα Ethical AI δημοσίευσε έρευνα σχετικά με κάρτες προτύπων για τη διαφάνεια στο AI είναι πώς να εκτελέσετε εσωτερικούς ελέγχους αλγορίθμων. Πέρυσι, η ομάδα της Ethical AI προσέλαβε τους πρώτους κοινωνιολόγους και άρχισε να σκέφτεται πώς να αντιμετωπίσετε την αλγοριθμική δικαιοσύνη με κριτική θεωρία φυλών. Στο Το συνέδριο VentureBeat Remodel το 2019, που ονομάζεται Mitchell ποικιλομορφία στις πρακτικές πρόσληψης που είναι σημαντικές για τις ηθικές εφαρμογές τεχνητής νοημοσύνης.

Ο τρόπος με τον οποίο απολύθηκε ο Gebru οδήγησε σε ισχυρισμούς για φωτισμό αερίου, ρατσισμό και αντίποινα, καθώς και ερωτήσεις από χιλιάδες υπαλλήλους της Google και μέλη του Κογκρέσου με καταχωρίσεις της νομοθεσίας για την εξουσιοδότηση ρύθμισης αλγορίθμων. Τα μέλη της ομάδας Ethical AI ζήτησαν από την ηγεσία της Google να ακολουθήσει μια σειρά από βήματα αποκαταστήστε την εμπιστοσύνη.

Ένας εκπρόσωπος της Google είπε στην VentureBeat ότι η νομική ομάδα της Google συνεργάστηκε με έναν εξωτερικό σύμβουλο για να διεξαγάγει έρευνα σχετικά με τον τρόπο με τον οποίο η Google απέλυσε τον Gebru. Η Google συνεργάστηκε επίσης με εξωτερικούς συμβούλους να διερευνήσει ισχυρισμούς εκφοβισμού και κακομεταχείρισης εργαζομένων από τον συνιδρυτή της DeepMind, Mustafa Suleyman, ο οποίος ηγήθηκε των ερευνητικών προσπαθειών δεοντολογίας στην εκκίνηση που εδρεύει στο Google στο Λονδίνο το 2014.

Ο εκπρόσωπος δεν παρείχε λεπτομέρειες όταν ρωτήθηκε ποια μέτρα έχει λάβει ο οργανισμός για να ανταποκριθεί στα αιτήματα αποκατάστασης εμπιστοσύνης δημιουργήθηκε από την ομάδα Ethical AI ή αυτά που παρουσιάζονται στο α επιστολή υπογεγραμμένη από πάνω από 2.000 υπαλλήλους λίγο μετά την απόλυση του Gebru, η οποία απαιτούσε μια διαφανή έρευνα υπό το κοινό.

Ένας εκπρόσωπος της Google είπε επίσης στο VentureBeat ότι η Google θα συνεργαστεί στενότερα με το ανθρώπινο δυναμικό σε “ορισμένες απελευθερώσεις υπαλλήλων ευαίσθητου χαρακτήρα”. Σε ένα Συνέντευξη Δεκεμβρίου 2020 με το VentureBeatΟ Gebru χαρακτήρισε ένα υπόμνημα σε ολόκληρη την εταιρεία, καλώντας τις στρατηγικές αποκλιμάκωσης μέρος της λύσης «απάνθρωπη» και μια απάντηση που την χρωματίζει ως θυμωμένη μαύρη γυναίκα.

Ενημερώθηκε στις 5:40 μ.μ. για να συμπεριλάβει τα σχόλια της Margaret Mitchell

VentureBeat

Η αποστολή της VentureBeat είναι να είναι ένα ψηφιακό τετράγωνο πόλης για τεχνικούς υπεύθυνους λήψης αποφάσεων για να αποκτήσουν πληροφορίες σχετικά με τη μετασχηματιστική τεχνολογία και τις συναλλαγές. Ο ιστότοπός μας παρέχει βασικές πληροφορίες σχετικά με τις τεχνολογίες δεδομένων και τις στρατηγικές για να σας καθοδηγήσει καθώς οδηγείτε τους οργανισμούς σας. Σας προσκαλούμε να γίνετε μέλος της κοινότητάς μας, για πρόσβαση:

  • ενημερωμένες πληροφορίες για θέματα που σας ενδιαφέρουν
  • τα ενημερωτικά δελτία μας
  • Περιεχόμενο περιφραγμένο με κορυφαία σκέψη και μειωμένη πρόσβαση στις πολύτιμες εκδηλώσεις μας, όπως το Renovate
  • δυνατότητες δικτύωσης και άλλα

Γίνομαι μέλος





[via]

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.