AI Weekly: τεχνο-ουτοπισμός στο χώρο εργασίας και απειλή υπερβολικού αυτοματισμού

AI Weekly: τεχνο-ουτοπισμός στο χώρο εργασίας και απειλή υπερβολικού αυτοματισμού


Κάθε τόσο συχνά, το VentureBeat γράφει μια ιστορία για κάτι που πρέπει να φύγει. Πριν από λίγα χρόνια, ο συνάδελφός μου Blair Hanley Frank τον υποστήριξε Συστήματα τεχνητής νοημοσύνης όπως ο Einstein, ο Sensei και ο Watson πρέπει να πάει επειδή οι εταιρείες τείνουν να υπερασπίζονται τα αποτελέσματα για τα προϊόντα και τις υπηρεσίες τους. Έτρεξα επίσης Quack AI είναι λευκή υπεροχή.

Αυτή την εβδομάδα, μια σειρά εκδηλώσεων στη διασταύρωση του χώρου εργασίας και της τεχνητής νοημοσύνης υποστήριξε το επιχείρημα ότι ο τεχνο-ουτοπισμός δεν έχει θέση στον σύγχρονο κόσμο. Ανάμεσα στα προειδοποιητικά σημάδια στην πρώτη σελίδα ήταν ένα ευρέως κυκλοφορούμενο κομμάτι του α Fiscal Moments δημοσιογράφος που είπε ότι έκανε λάθος να είναι αισιόδοξος για τα ρομπότ.

Η O’Connor περιγράφει πώς ήταν τεχνο-αισιόδοξη, αλλά κατά τη διάρκεια της έκθεσής της ανακάλυψε ότι τα ρομπότ μπορούν να φέρουν τους ανθρώπους σε ένα ρομποτικό σύστημα και να τους αναγκάσουν να εργαστούν με το ρυθμό ενός ρομπότ. Στο άρθρο, αναφέρει ανάλυση των εσωτερικών αρχείων του Amazon από το Κέντρο Ερευνητικών Αναφορών ο οποίος διαπίστωσε ότι τα περιστατικά τραυματισμού ανθρώπων ήταν υψηλότερα στις εγκαταστάσεις του Αμαζονίου με ρομπότ από ό, τι σε εγκαταστάσεις χωρίς ρομπότ.

«Ο απάνθρωπος και η εντατικοποίηση της εργασίας δεν είναι αναπόφευκτα», έγραψε η δημοσιογράφος, κυριολεκτικά αποκαλούμενη Sarah O’Connor. Συμπληρώστε την επιλογή σας αστείο Terminator εδώ.

Επίσης αυτή την εβδομάδα: Το BBC μήνυσε τον Kevin Parker, διευθύνοντα σύμβουλο της HireVue, λέγοντας ότι η τεχνητή νοημοσύνη είναι πιο αμερόληπτος από έναν ανθρώπινο ερευνητή. Αντιμέτωπη με την αντιπολίτευση πολλών πτυχών, η HireVue τον περασμένο μήνα ανακοίνωσε ότι δεν θα χρησιμοποιεί πλέον αναλυτικά στοιχεία προσώπου στην ανάλυση συνέντευξης βίντεο που υποστηρίζει αιτούντες για εργασία. Η Microsoft Groups πήρε παρόμοια τεχνολογία αυτήν την εβδομάδα για να αναγνωρίσει που τους αρέσουν οι βιντεοκλήσεις.

Οι εξωτερικοί αναθεωρητές εξέτασαν το Al που χρησιμοποιείται από την HireVue και την εταιρεία λογισμικού που προσλαμβάνει Pymetrics, που αναφέρεται στο AI ως «εντελώς απαλλαγμένο από προκατάληψη,“Διαδικασίες που φαίνεται να έχουν έθεσε περισσότερες ερωτήσεις από ό, τι απάντησαν.

ΕΙΝΑΙ Η VentureBeat δημοσίευσε ένα άρθρο σε μια ερευνητική εργασία με προειδοποίηση: εταιρείες όπως η Google και το OpenAI έχουν λίγους μήνες για να αντιμετωπίσουν τις αρνητικές κοινωνικές συνέπειες των μεγάλων γλωσσικών μοντέλων προτού διαιωνίσουν στερεότυπα, αντικαταστήσουν θέσεις εργασίας ή χρησιμοποιούνται για τη διάδοση παραπληροφόρησης.

Αυτό που είναι σημαντικό να κατανοήσουμε σχετικά με το OpenAI και το άρθρο του Στάνφορντ είναι ότι πριν από την εξάπλωση της κριτικής σε μεγάλα γλωσσικά μοντέλα, η έρευνα και ο έλεγχος των συνόλων δεδομένων βρήκαν σημαντικά ελαττώματα στο μεγάλο όραμα του υπολογιστή. σύνολα δεδομένων που ήταν πάνω από μια δεκαετία, όπως το ImageNet είναι 80 εκατομμύρια μικρές εικόνες. Μια ανάλυση των συνόλων δεδομένων προσώπου που χρονολογούνται τέσσερις δεκαετίες βρήκαν επίσης ηθικά αμφισβητήσιμες πρακτικές.

Την επομένη της δημοσίευσης αυτού του άρθρου, ο συνιδρυτής του OpenAI, Greg Brockman έγραψε στο Twitter τι έμοιαζε με την έγκριση μιας εβδομάδας εργασίας 90 ωρών. Εκτελέστε τα μαθηματικά σε αυτό. Εάν κοιμάστε επτά ώρες τη νύχτα, θα έχετε περίπου τέσσερις ώρες την ημέρα για να κάνετε οτιδήποτε δεν λειτουργεί, όπως άσκηση, φαγητό, ανάπαυση ή να περάσετε χρόνο με την οικογένειά σας.

Το τέλος του τεχνο-ουτοπισμού δεν χρειάζεται να σημαίνει το θάνατο αισιόδοξων απόψεων σχετικά με τους τρόπους με τους οποίους η τεχνολογία μπορεί να βελτιώσει την ανθρώπινη ζωή. Υπάρχουν ακόμα πολλοί που το πιστεύουν Η εσωτερική καλλιέργεια μπορεί να αλλάξει τη ζωή προς το καλύτερο ή ότι η μηχανική μάθηση μπορεί να επιταχύνει τις προσπάθειες αντιμετώπιση της κλιματικής αλλαγής.

Η συμμαθητής ηθικής της Google AI Margaret Mitchell υπέβαλε πρόσφατα μια υπόθεση για σχεδιασμό AI που κρατά τη μεγαλύτερη εικόνα στο μυαλό. Σε ένα email που στάλθηκε σε στελέχη της εταιρείας πριν από αυτό τέθηκε υπό έρευνα, είπε ότι η εξέταση της ηθικής και της ένταξης είναι μέρος της μακροπρόθεσμης σκέψης για μακροπρόθεσμα ευεργετικά αποτελέσματα.

«Η ιδέα είναι ότι, για τον καθορισμό της έρευνας για την τεχνητή νοημοσύνη τώρα, πρέπει να κοιτάξουμε πού θέλουμε να είμαστε στο μέλλον, δουλεύοντας προς τα πίσω από το ιδανικό μέλλον έως αυτήν τη στιγμή, τώρα, για να καταλάβουμε τι πρέπει να δουλέψουμε σήμερα », είπε ο Μίτσελ.« Όταν μπορείτε να βασίσετε την ερευνητική σας σκέψη και στα δύο πρόβλεψη και κατανόηση της κοινωνίας, τα ερευνητικά ερωτήματα που πρέπει να επικεντρωθούν σήμερα πέφτουν από εκεί. “

Λαμβάνοντας υπόψη αυτού του είδους τη μακροπρόθεσμη σκέψη, η ομάδα Ethical AI της Google και οι ερευνητές του Google DeepMind έχουν δημιουργήσει ένα πλαίσιο για μεταφορά έλεγχος εσωτερικών αλγορίθμων, ρώτησε το σοφία κλίμακας κατά την αντιμετώπιση κοινωνικών ζητημάτων, και ρώτησε μια πολιτιστική αλλαγή στην κοινότητα μηχανικής μάθησης. Οι ερευνητές της Google υποστήριξαν επίσης ανοικοδόμηση της βιομηχανίας AI σύμφωνα με τις αρχές της αντι-αποικιοκρατίας και τεχνητή τεχνητή νοημοσύνη και αξιολογεί τη χρήση των ιδίων κεφαλαίων κοινωνιολογία και κριτική θεωρία της φυλής. Και ερευνητές ηθικής τεχνητής νοημοσύνης πρόσφατα επιβεβαιώθηκε ότι η αλγοριθμική δικαιοσύνη δεν μπορεί απλά να μεταφερθεί από δυτικά έθνη σε μη δυτικά έθνη ή νότια έθνη όπως η Ινδία.

Ο θάνατος της τεχνο-ουτοπίας θα μπορούσε να σημαίνει ότι οι δημιουργοί των συστημάτων τεχνητής νοημοσύνης αναγνωρίζουν ότι μπορεί να χρειαστεί να συνεργαστούν με τις κοινότητες που έχουν οι τεχνολογικές τους επιπτώσεις και να κάνουν κάτι περισσότερο από απλώς να συμμορφωθούν με τους σπάνιους κανονισμούς που ισχύουν σήμερα. Αυτό θα μπορούσε να ωφελήσει τις εταιρείες τεχνολογίας καθώς και το ευρύ κοινό. Όπως είπε ο Διευθύνων Σύμβουλος της Parity, Rumman Chowdhury, στο VentureBeat σε μια πρόσφατη ιστορία του ποιες αλγοριθμικές εκκινήσεις ελέγχου πρέπει να είναι επιτυχημένες, η ανήθικη συμπεριφορά μπορεί να έχει φήμη και οικονομικό κόστος που υπερβαίνει τις νομικές επιπτώσεις.

Η έλλειψη περιεκτικής ρύθμισης θα μπορούσε να είναι ο λόγος για τον οποίο ορισμένες κυβερνήσεις και εθνικές ομάδες όπως η Knowledge & Society και Ο ΟΟΣΑ χτίζει αλγοριθμικά εργαλεία αξιολόγησης για τη διάγνωση των επιπέδων κινδύνου για συστήματα AI.

Βρέθηκαν πολλές αναφορές και έρευνες αυτοματοποίηση αυξάνεται κατά τη διάρκεια της πανδημίας, και τα γεγονότα της περασμένης εβδομάδας μου θυμίζουν το έργο του καθηγητή και οικονομολόγου του MIT Daron Acemoglu, του οποίου η έρευνα διαπίστωσε ότι ένα ρομπότ μπορεί να αντικαταστήσει 3.3 ανθρώπινες θέσεις εργασίας.

Σε μαρτυρία πριν από το Κογκρέσο το περασμένο φθινόπωρο Σχετικά με το ρόλο που θα διαδραματίσει η AI στην οικονομική ανάκαμψη στις Ηνωμένες Πολιτείες, ο καθηγητής και οικονομολόγος του MIT Daron Acemoglu προειδοποίησε την επιτροπή για τους κινδύνους του υπερβολικού αυτοματισμού.

ΕΝΑ Έγγραφο του Εθνικού Γραφείου Οικονομικής Έρευνας (NBER) 2018 Ο συν-συγγραφέας του Acemoglu λέει ότι ο αυτοματισμός μπορεί να δημιουργήσει νέες θέσεις εργασίας και επιχειρήσεις, όπως έχει κάνει στο παρελθόν, αλλά περιγράφει τον υπερβολικό αυτοματισμό ως περιοριστικό της ανάπτυξης της αγοράς εργασίας και δυνητικά έχει λειτουργήσει ως τροχοπέδη στην αύξηση της παραγωγικότητας για δεκαετίες.

«Η τεχνητή νοημοσύνη είναι μια πλατφόρμα ευρείας τεχνολογίας με μεγάλη υπόσχεση. Μπορεί να χρησιμοποιηθεί για να βοηθήσει την ανθρώπινη παραγωγικότητα και να δημιουργήσει νέα ανθρώπινα καθήκοντα, αλλά θα μπορούσε να επιδεινώσει τις ίδιες τάσεις εάν το χρησιμοποιούμε μόνο για αυτοματοποίηση “, είπε στην επιτροπή Residence Banking.” Ο υπερβολικός αυτοματισμός δεν είναι μια αξιοθαύμαστη εξέλιξη. Είναι το αποτέλεσμα επιλογών και μπορούμε να κάνουμε διαφορετικές επιλογές. “

Για να αποφευχθεί η υπερβολική αυτοματοποίηση, σε αυτό το έγγραφο του NBER του 2018, ο ερευνητής του Πανεπιστημίου Acemoglu και του Πανεπιστημίου της Βοστώνης, Pascual Restrepo, ζητούν μεταρρυθμίσεις στον αμερικανικό φορολογικό κώδικα, επειδή αυτή τη στιγμή ευνοεί το κεφάλαιο έναντι της ανθρώπινης εργασίας. Ζητούν επίσης νέα ή ενισχυμένα θεσμικά όργανα ή πολιτικές για την εξασφάλιση κοινής ευημερίας, γράφοντας “Εάν δεν βρούμε έναν τρόπο να δημιουργήσουμε κοινή ευημερία από τα κέρδη παραγωγικότητας που δημιουργούνται από την τεχνητή νοημοσύνη, υπάρχει κίνδυνος η πολιτική αντίδραση σε αυτές τις νέες τεχνολογίες να επιβραδύνετε. ή ακόμη και να σταματήσετε εντελώς την υιοθέτηση και την ανάπτυξή του. “

Τα γεγονότα αυτής της εβδομάδας περιλαμβάνουν πολυπλοκότητες όπως ρομπότ και ανθρώπους που εργάζονται μαζί και γλωσσικά μοντέλα με δισεκατομμύρια παραμέτρους, αλλά όλοι φαίνεται να κάνουν μια απλή ερώτηση: «Τι είναι η νοημοσύνη Για μένα, η εργασία 90 ωρών την εβδομάδα δεν είναι έξυπνη. Ούτε διαιωνίζει προκαταλήψεις ή στερεότυπα με γλωσσικά μοντέλα ή δεν λαμβάνει υπόψη τον αντίκτυπο του υπερβολικού αυτοματισμού. Το Genuine iIntelligence λαμβάνει υπόψη το μακροπρόθεσμο κόστος και τις συνέπειες, το ιστορικό και κοινωνικό πλαίσιο και, όπως είπε η Sarah O’Connor, διασφαλίζει ότι “τα ρομπότ λειτουργούν για εμάς και όχι το αντίστροφο”.

Για κάλυψη AI, στείλτε συμβουλές ειδήσεων στους Khari Johnson και Kyle Wiggers και τον συντάκτη AI Seth Colaner και φροντίστε να εγγραφείτε στο Εβδομαδιαίο ενημερωτικό δελτίο AI και να προσθέσουμε σελιδοδείκτη στο κανάλι AI, Το αυτοκίνητο.

Ευχαριστώ για την ανάγνωση,

Κάρι Τζόνσον

Ανώτερος συγγραφέας του προσωπικού AI

VentureBeat

Η αποστολή της VentureBeat είναι να είναι ένα ψηφιακό τετράγωνο πόλης για τεχνικούς υπεύθυνους λήψης αποφάσεων για να αποκτήσουν πληροφορίες σχετικά με τη μετασχηματιστική τεχνολογία και τις συναλλαγές. Ο ιστότοπός μας παρέχει βασικές πληροφορίες σχετικά με τις τεχνολογίες δεδομένων και τις στρατηγικές για να σας καθοδηγήσει καθώς οδηγείτε τους οργανισμούς σας. Σας προσκαλούμε να γίνετε μέλος της κοινότητάς μας, για πρόσβαση:

  • ενημερωμένες πληροφορίες για θέματα που σας ενδιαφέρουν
  • τα ενημερωτικά δελτία μας
  • Περιεχόμενο περιφραγμένο με κορυφαία σκέψη και μειωμένη πρόσβαση στα πολύτιμα γεγονότα μας, όπως το Change
  • δυνατότητες δικτύωσης και άλλα

Γίνομαι μέλος





[via]