Ο νέος οδηγός δεοντολογίας AI της Google απαιτεί μια πιο «διπλωματική» συνομιλία

Ο νέος οδηγός δεοντολογίας AI της Google απαιτεί μια πιο «διπλωματική» συνομιλία


Μετά από μήνες εσωτερικής σύγκρουσης και αντιπολίτευσης από το Κογκρέσο και χιλιάδες υπαλλήλους της Google, η Google ανακοίνωσε σήμερα ότι θα αναδιοργανώσει τις λειτουργίες δεοντολογίας της AI και θα τις τοποθετήσει στα χέρια της Αντιπροέδρου Marian Croak, ο οποίος θα ηγηθεί ενός νέου ερευνητικού κέντρου. . .

Ένα site και έξι λεπτά συνέντευξη βίντεο με τον Croak που κυκλοφόρησε σήμερα η Google ανακοινώνοντας τα νέα δεν κάνει καμία αναφορά για τον πρώην. Η ομάδα της Moral AI συντονίζει τον Timnit Gebru, τον οποίο η Google απέλυσε απότομα στα τέλη του 2020, ή ηγέτης της Ethical AI, Margaret “Meg” Mitchell, η οποία δήλωσε εκπρόσωπος της Google στο VentureBeat ήταν τέθηκε υπό εσωτερική έρευνα τον προηγούμενο μήνα.

Το ανακοινωθέν δεν αναφέρει επίσης τα μέτρα που ελήφθησαν για την αντιμετώπιση της ανάγκης για “ανοικοδόμηση της εμπιστοσύνηςΖητήθηκε από μέλη της ομάδας Ethical AI της Google. Αρκετά μέλη της ομάδας Ethical AI ισχυρίστηκαν ότι ανακάλυψαν την αλλαγή ηγεσίας από μια δημοσιευμένη αναφορά αργά το απόγευμα της Τετάρτης από το Bloomberg.

“Η Marian είναι ένας πολύ ταλαντούχος πρωτοπόρος επιστήμονας στον οποίο θαύμαζα και μάλιστα εμπιστεύτηκα. Είναι απίστευτα οδυνηρό να την βλέπει να νομιμοποιεί τι έχουν κάνει ο Jeff Dean και οι υφισταμένοι του σε μένα και την ομάδα μου”, δήλωσε ο Gebru στην VentureBeat.

Στο βίντεο, ο Croak ασχολείται με αυτοκινούμενα αυτοκίνητα και τεχνικές για τη διάγνωση της ασθένειας ως πιθανούς τομείς ενδιαφέροντος στο μέλλον, αλλά δεν ανέφερε μεγάλα γλωσσικά μοντέλα. Ένα πρόσφατο κομμάτι της έρευνας για την τεχνητή νοημοσύνη που αναφέρεται σε ένα ευρύ φάσμα εμπειρογνωμόνων κατέληξε στο συμπέρασμα ότι αρέσει σε εταιρείες Η Google και το OpenAI έχουν μόνο λίγους μήνες για να ορίσουν τα πρότυπα σχετικά με τον τρόπο αντιμετώπισης του αρνητικού κοινωνικού αντίκτυπου των μεγάλων γλωσσικών μοντέλων.

Τον Δεκέμβριο, ο Gebru απολύθηκε αφού έστειλε e mail στους συναδέλφους τους, συμβουλεύοντάς τους να μην συμμετέχουν πλέον στις προσπάθειες συλλογής δεδομένων διαφορετικότητας. Ένα έγγραφο στο οποίο δούλευε εκείνη τη στιγμή επέκρινε μεγάλα γλωσσικά μοντέλα, όπως το είδος που η Google είναι γνωστή για την παραγωγή, για να βλάψει τις περιθωριοποιημένες κοινότητες και να οδηγήσει τους ανθρώπους να πιστέψουν ότι τα μοντέλα που σχηματίστηκαν με τεράστια σώματα δεδομένων κειμένου αντιπροσωπεύουν μια πραγματική πρόοδο στην κατανόηση της γλώσσας.

Τις εβδομάδες μετά την απόλυση του, τα μέλη της ομάδας Moral AI ζήτησαν επίσης την επιστροφή του Gebru στον προηγούμενο ρόλο του. Περισσότεροι από 2.000 Googler και χιλιάδες άλλοι υποστηρικτές υπέγραψαν μια επιστολή υπέρ του Gebru και σε αντίθεση με αυτό επιστολές “Πρωτοφανής λογοκριστική έρευνα”. Οι Κογκρέσοι που έχουν προτείνει νομοθεσία για τη ρύθμιση αλγορίθμων έθεσαν επίσης μια σειρά από ερωτήματα σχετικά με το περιστατικό του Gebru σε ένα γράμμα στον CEO της Google Sundar Pichai. Νωρίτερα αυτό το μήνα, δημοσιεύθηκαν νέα ότι δύο μηχανικοί λογισμικού παραιτήθηκε σε διαμαρτυρία σχετικά με τη μεταχείριση της Google σε μαύρες γυναίκες, όπως η Gebru και η πρώην στρατολογητής April Curley.

Σήμερα βίντεο και δημοσιεύσεις ιστολογίου Όσον αφορά την αλλαγή στο Google, ο Croak είπε ότι οι άνθρωποι πρέπει να καταλάβουν ότι οι τομείς της υπεύθυνης τεχνητής νοημοσύνης και της ηθικής είναι νέοι και ζήτησαν έναν πιο συμβιβαστικό τόνο συνομιλίας σχετικά με τους τρόπους με τους οποίους η AI μπορεί να βλάψει τους ανθρώπους. Η Google δημιούργησε τις ηθικές αρχές της για την τεχνητή νοημοσύνη το 2019, λίγο μετά από χιλιάδες υπαλλήλους που αντιτάχθηκαν στη συμμετοχή στο έργο Maven του αμερικανικού στρατού.

“Υπάρχει λοιπόν μεγάλη διαφωνία, υπάρχει μεγάλη σύγκρουση όσον αφορά την προσπάθεια τυποποίησης ενός κανονιστικού ορισμού αυτών των αρχών και του οποίου ο ορισμός της δικαιοσύνης και της ασφάλειας θα χρησιμοποιήσουμε, και έτσι υπάρχει πολλή σύγκρουση αυτή τη στιγμή στο πεδίο, και αυτό μπορεί να είναι πολωτικό κατά καιρούς, και αυτό που θα ήθελα να κάνω είναι μόνο για τους ανθρώπους να έχουν μια συνομιλία με πιο διπλωματικό τρόπο, ίσως για να μπορέσουμε πραγματικά να προχωρήσουμε αυτό το πεδίο προς τα εμπρός », είπε ο Croak.

Ο Croak είπε ότι το νέο κέντρο θα λειτουργήσει εσωτερικά για να αξιολογήσει τα συστήματα AI που εφαρμόζονται ή σχεδιάζονται και, στη συνέχεια, “συνεργαστείτε με τους συναδέλφους και τους PA μας και μετριάστε την πιθανή ζημία”.

Το επεισόδιο Gebru στο Google οδήγησε ορισμένους ερευνητές της τεχνητής νοημοσύνης να δεσμευτούν να μην αναθεωρήσουν τα έγγραφα της Έρευνας της Google μέχρι να γίνει η αλλαγή. Λίγο μετά την απόλυση της Google από τον Gebru, το Reuters ανέφερε ότι η εταιρεία ζήτησε από τους ερευνητές της να δώσουν θετικό τόνο. όταν ασχολείστε με ζητήματα που ονομάζονται ευαίσθητα θέματα.

Ο διορισμός του Croak στη θέση σηματοδοτεί την τελευταία αμφιλεγόμενη εξέλιξη στην κορυφή των θέσεων δεοντολογίας της AI στο Google Research και το DeepMind, το οποίο απέκτησε η Google το 2014. Τον περασμένο μήνα, Εφημερίδα της Wall Road σχέση διαπίστωσε ότι ο συνιδρυτής της DeepMind Mustafa Suleyman απομακρύνθηκε από τις διαχειριστικές λειτουργίες, πριν αποχωρήσει από την εταιρεία το 2019, λόγω εκφοβισμού από τους συναδέλφους του. Ο Suleyman ήταν επίσης υπεύθυνος για την ηθική στο DeepMind, όπου συζήτησε θέματα όπως η αλλαγή του κλίματος και η υγειονομική περίθαλψη. Μήνες αργότερα, η Google προσέλαβε τον Suleyman για να εργαστεί σε συμβουλευτικό ρόλο σε θέματα πολιτικής και κανονιστικών ρυθμίσεων.

Το πώς συμπεριφέρεται η Google όσον αφορά την υπεύθυνη χρήση της τεχνητής νοημοσύνης και η υπεράσπιση κατά της αλγοριθμικής καταπίεσης είναι εξαιρετικά σημαντικό επειδή η υιοθέτηση της τεχνητής νοημοσύνης αυξάνεται στις επιχειρήσεις και την κοινωνία, αλλά και επειδή η Google είναι ηγέτης. Παγκοσμίως στην παραγωγή δημοσιευμένης έρευνας για την τεχνητή νοημοσύνη. Μια μελέτη που κυκλοφόρησε το περασμένο φθινόπωρο διαπίστωσε ότι οι εταιρείες Massive Tech αντιμετωπίζουν τη χρηματοδότηση της δεοντολογίας της AI με έναν τρόπο που είναι ανάλογο με τον τρόπο των εταιρειών Massive Tobacco χρηματοδότησε έρευνα για την υγεία πριν από δεκαετίες.

Η VentureBeat απευθύνθηκε στην Google για να ρωτήσει σχετικά με τα βήματα για τη μεταρρύθμιση των εσωτερικών πρακτικών, ζητήματα που έθεσαν οι υπάλληλοι της Google και μια σειρά από άλλες ερωτήσεις. Αυτή η ιστορία θα ενημερωθεί εάν ακούσουμε ξανά από εσάς.

Και υπάρχουν περισσότερα

VentureBeat

Η αποστολή της VentureBeat είναι να είναι ένα ψηφιακό τετράγωνο πόλης για τεχνικούς υπεύθυνους λήψης αποφάσεων για να αποκτήσουν πληροφορίες σχετικά με τη μετασχηματιστική τεχνολογία και συναλλαγές. Ο ιστότοπός μας παρέχει βασικές πληροφορίες σχετικά με τις τεχνολογίες δεδομένων και τις στρατηγικές για να σας καθοδηγήσει καθώς οδηγείτε τους οργανισμούς σας. Σας προσκαλούμε να γίνετε μέλος της κοινότητάς μας, για πρόσβαση:

  • ενημερωμένες πληροφορίες για θέματα που σας ενδιαφέρουν
  • τα ενημερωτικά δελτία μας
  • Περιεχόμενο περιφραγμένο με κορυφαία σκέψη και μειωμένη πρόσβαση στις πολύτιμες εκδηλώσεις μας, όπως το Rework
  • δυνατότητες δικτύωσης και άλλα

Γίνομαι μέλος





[via]

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.