Όταν το AI βλάπτει τους ανθρώπους, ποιος θεωρείται υπεύθυνος

Όταν το AI βλάπτει τους ανθρώπους, ποιος θεωρείται υπεύθυνος;


Έπειτα από απόφαση του Grand Jury της κομητείας Maricopa, η γυναίκα πίσω από το τιμόνι ενός ημι-αυτόνομου οχήματος Uber κατηγορήθηκε για ανθρωποκτονία τον περασμένο μήνα. 2018 δολοφονία του Elaine Herzberg. Ο εφεδρικός οδηγός που κατηγορείται μετά το πρώτο θάνατο ενός αυτόνομου οχήματος φαίνεται να είναι ο πρώτος και υπόσχεται να είναι μια ιστορική υπόθεση με τη δύναμη να διαμορφώσει το μέλλον της τεχνητής νοημοσύνης.

Το πώς να προσδιορίσετε εάν ένας άνθρωπος βλάπτει όταν η AI παίζει ρόλο στον τραυματισμό ή τον θάνατο ενός ατόμου δεν είναι εύκολη υπόθεση. Εάν το AI είναι υπό έλεγχο και κάτι πάει στραβά, πότε φταίει ο άντρας και πότε μπορείτε να κατηγορήσετε το AI Αυτός είναι ο στόχος του α πρόσφατη δημοσίευση που δημοσιεύθηκε στο Boston College Regulation Evaluation. Σε αυτό, ο επίκουρος καθηγητής της UCLA Andrew Selbst ανακαλύπτει ότι η τεχνητή νοημοσύνη δημιουργεί ένταση με τον υφιστάμενο νόμο αμέλειας που απαιτεί παρέμβαση από τις ρυθμιστικές αρχές. Το έγγραφο κυκλοφόρησε αρχικά στις αρχές του 2020 αλλά πρόσφατα ενημερώθηκε με την ανάλυση της υπόθεσης ανθρωποκτονίας στην Αριζόνα.

Ο Selbst λέει ότι η υπόθεση Uber θα μπορούσε να είναι μια περίπτωση στην οποία η ευθύνη για μια ενέργεια αποδίδεται λανθασμένα σε έναν ανθρώπινο ηθοποιό με περιορισμένο έλεγχο στη συμπεριφορά ενός αυτοματοποιημένου ή αυτόνομου συστήματος, αυτό που ο πολιτιστικός ανθρωπολόγος Madeleine Elish αποκαλεί “ζώνες ηθικής παραμόρφωσης. “Όταν οι μηχανές και οι άνθρωποι θεωρούνται παράλληλα, αλλά ο νόμος δεν λαμβάνει υπόψη την τεχνητή νοημοσύνη, οι άνθρωποι μπορούν να απορροφήσουν την ευθύνη και να γίνουν” σφουγγάρια ευθύνης “.

“Εάν ο νόμος περί αμέλειας απαιτεί υψηλότερο επίπεδο φροντίδας από ό, τι μπορεί να χειριστεί ο άνθρωπος, θα φέρει ευθύνη στους εργαζόμενους, ακόμα και όταν ο μέσος άνθρωπος δεν μπορεί να αποτρέψει τον κίνδυνο”, γράφει ο Selbst. “Ενώ η υπόθεση Uber φαίνεται να δείχνει προς την κατεύθυνση των τομέων ηθικής υποβάθμισης, είναι επίσης εύκολο να φανταστεί κανείς το αντίθετο: ανακαλύπτοντας ότι, επειδή ο μέσος άνθρωπος δεν μπορεί να αντιδράσει εγκαίρως ή να παραμένει συνεχώς σε εγρήγορση, δεν είναι λογικό. αυτό που δημιουργεί το AI είναι η αβεβαιότητα. “

Ο Selbst είπε ότι οι νομικοί μελετητές τείνουν να κάνουν διάκριση μεταξύ πλήρως αυτόνομων οχημάτων και ημιαυτόνομων μηχανών που λειτουργούν με ανθρώπους, όπως το όχημα που εμπλέκεται στο ατύχημα του Uber.

Ενώ τα πλήρως αυτόνομα οχήματα ή η τεχνητή γενική νοημοσύνη (AGI) μπορούν να μεταβιβάσουν την ευθύνη στον κατασκευαστή του υλικού ή στο σύστημα τεχνητής νοημοσύνης, η απάντηση είναι πολύ λιγότερο σαφής όταν ένας άνθρωπος χρησιμοποιεί AI για να λάβει μια απόφαση βάσει μια πρόβλεψη, ταξινόμηση ή αξιολόγηση, ένα γεγονός που προβλέπει η Selbst θα παρουσιάσει προκλήσεις για επιχειρήσεις, κυβερνήσεις και κοινωνίες.

Η συντριπτική πλειονότητα της τεχνητής νοημοσύνης στην αγορά αυξάνει σήμερα τη λήψη αποφάσεων σε ανθρώπους. Τα κοινά παραδείγματα σήμερα περιλαμβάνουν αλγόριθμους υποτροπής που χρησιμοποιούνται από δικαστές και εργαλεία που βασίζονται σε τεχνητή νοημοσύνη που χρησιμοποιούν οι ιατροί για να παρουσιάσουν ένα σχέδιο ιατρικής θεραπείας ή διάγνωση. Παραδείγματα περιλαμβάνουν συστήματα που ανιχνεύουν μοτίβα σε ιατρικές εικόνες που μπορούν να χρησιμοποιήσουν οι επαγγελματίες για τη διάγνωση ασθενειών όπως καρκίνος του μαστού, καρκίνος του πνεύμονα, καρκίνος του εγκεφάλουκαι στο πρώιμη εργασία, COVID-19.

Ο Selbst λέει ότι η τεχνολογία είναι ο βασικός μοχλός της αλλαγής του νόμου περί αμέλειας, αλλά ο συνδυασμός ανθρώπων και τεχνητής νοημοσύνης για τη λήψη απόφασης κάνει την AI διαφορετική. Περαιτέρω περίπλοκη σημασία είναι το γεγονός ότι οι άνθρωποι μπορούν να δεχτούν την αυτοματοποιημένη λήψη αποφάσεων εκτός ελέγχου, να αγνοήσουν την AI εάν υποφέρουν από κόπωση συναγερμού από πάρα πολλές ειδοποιήσεις και βασίζονται στην AI για να αναγνωρίζουν μοτίβα σε δεδομένα που είναι πολύ περίπλοκα για ακολουθηστε.

Για την επίλυση προβλημάτων όταν τα πράγματα πάνε στραβά σε έναν κόσμο γεμάτο ανθρώπους και συστήματα τεχνητής νοημοσύνης που λαμβάνουν αποφάσεις μαζί, η Selbst λέει ότι οι κυβερνήσεις πρέπει να εξετάσουν τις μεταρρυθμίσεις που δίνουν στο νόμο περί αμέλειας την ευκαιρία να καλύψουν τις αναδυόμενη τεχνολογία.

“Όπου η κοινωνία αποφασίζει ότι η τεχνητή νοημοσύνη είναι πολύ καλή για να παραμεριστεί, πιθανότατα θα χρειαζόμαστε ένα νέο ρυθμιστικό παράδειγμα για να αντισταθμίσουμε τα θύματα της χρήσης τεχνητής νοημοσύνης και θα πρέπει να διαχωριστεί από την ανάγκη εύρεσης ελαττωμάτων. Θα μπορούσε να είναι. αυστηρής ευθύνης, θα μπορούσε να είναι εκτεταμένη ασφάλιση ή θα μπορούσε να είναι εκ των προτέρων ρύθμιση », αναφέρει το έγγραφο.

Υπάρχει επίσης μια σειρά από υπάρχοντα μοντέλα όπως το “Food and drug administration για αλγόριθμους” που πρότεινε ο Andrew Tutt, μια ομοσπονδιακή υπηρεσία για την αξιολόγηση αλγορίθμων με τον ίδιο τρόπο που το Food and drug administration διερευνά φάρμακα, τα οποία όπως η τεχνητή νοημοσύνη μπορούν να αποφέρουν αποτελέσματα χωρίς να ικανός να εξηγήσει πλήρως το περιεχόμενό του. Υπάρχει επίσης η ιδέα των αλγοριθμικών εκτιμήσεων που μοιάζουν με τις εκτιμήσεις περιβαλλοντικών επιπτώσεων, έναν τρόπο αύξησης της εποπτείας και των διαθέσιμων στο κοινό γνωστοποιήσεων.

“Τελικά, δεδομένου ότι η τεχνητή νοημοσύνη εισάγει ένα στρώμα αδιάκριτου, μη διαισθητικού, στατιστικά παραγόμενου και συχνά ιδιόκτητου κώδικα μεταξύ της απόφασης και του αποτελέσματος, δοκιμάζεται η σχέση μεταξύ ανθρώπινων επιλογών, ενεργειών και αποτελεσμάτων από την οποία αντλεί ο νόμος περί αμέλειας τη δύναμή του “, διαβάζει το έγγραφο. “Ενώ μπορεί να υπάρχει τρόπος να συνδέσουμε κάποιες αποφάσεις με τα αποτελέσματά τους χρησιμοποιώντας απαιτήσεις για επεξήγηση και διαφάνεια, η παραμέληση θα χρειαστεί μια σειρά από εξωτερική παρέμβαση για να έχει μια πραγματική ευκαιρία να παράσχει αποκατάσταση για τη ζημία που προκύπτει από τη χρήση της AI.” .

Αυτό θα μπορούσε να δώσει στα πρότυπα του νόμου περί παραμέλησης χρόνο για να καλύψουν τις εξελίξεις στην τεχνητή νοημοσύνη πριν από τη μελλοντική αλλαγή παραδείγματος και τα πρότυπα υστερούν ακόμη πιο πίσω.

Το άρθρο διερευνά επίσης το ερώτημα του τι συμβαίνει όταν η αλγοριθμική προκατάληψη παίζει ρόλο σε έναν τραυματισμό Επιστρέφοντας στο ζήτημα των αυτοκινούμενων οχημάτων, η έρευνα έδειξε ότι τα συστήματα μηχανικής όρασης που χρησιμοποιούν κάνουν καλύτερη δουλειά για την ανίχνευση λευκών πεζών από τους μαύρους πεζούς. Η αποδοχή της χρήσης ενός τέτοιου συστήματος θα μπορούσε να μειώσει συνολικά τις απώλειες των οχημάτων, αλλά και να επιβάλει κυρώσεις για χειρότερα αποτελέσματα για τους μαύρους πεζούς.

Εάν δεν υπάρξει κανονιστική δράση, είπε ο Selbst, υπάρχει κίνδυνος η AI να ομαλοποιήσει τα αρνητικά αποτελέσματα για ορισμένους, αλλά να μην τους προσφύγει. Αυτό έχει τη δυνατότητα να επιταχύνει τα συναισθήματα της αδυναμίας που αντιμετωπίζουν οι καταναλωτές σήμερα όταν αντιμετωπίζουν αλγοριθμική προκατάληψη ή δεν έχουν επιλογές επισκευής όταν κάνουν ζημιά στο διαδίκτυο.

“Η ανησυχία είναι ότι, ενώ το AI μπορεί να μειώσει με επιτυχία τον συνολικό αριθμό τραυματισμών, δεν θα τους εξαλείψει, αλλά θα εξαλείψει την ικανότητα αυτών που τραυματίστηκαν στο νέο καθεστώς να ανακάμψουν από αμέλεια”, αναφέρει το έγγραφο. “Χρησιμοποιώντας ένα εργαλείο που βασίζεται σε στατιστικά στοιχεία, το νοσοκομείο αποτρέπει πολλούς τραυματισμούς, αλλά από ατομική προοπτική δημιουργεί επίσης ένα εντελώς νέο σύνολο θυμάτων που δεν θα έχουν δυνατότητα προσφυγής.”

Το απόρρητο στη βιομηχανία τεχνητής νοημοσύνης είναι επίσης ένα πιθανό σημαντικό εμπόδιο. Ο νόμος περί αμέλειας εξελίσσεται με την πάροδο του χρόνου για να αντικατοπτρίζει τους κοινούς ορισμούς του τι συνιστά λογική ή παράλογη συμπεριφορά, για παράδειγμα, από γιατρό ή οδηγό που κατηγορείται για αμέλεια, αλλά το απόρρητο είναι πιθανό να κρύψει από το κοινό κοινά συμβάντα που προκαλούν τραυματισμό. Όπως στο παρελθόν με το Big Tobacco, ορισμένες από αυτές τις πληροφορίες ενδέχεται να δημοσιοποιούνται από καταγγελίες, αλλά το απόρρητο μπορεί να αποτρέψει αυτήν την εξέλιξη των προτύπων. Η ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης σε σχέση με τις αλλαγές στην αμέλεια ή την αστική ευθύνη θα μπορούσε να κάνει τα πράγματα χειρότερα.

“Ως αποτέλεσμα της μυστικότητας, γνωρίζουμε λίγα από όσα έχουν μάθει μεμονωμένες εταιρείες σχετικά με τα λάθη και τα τρωτά σημεία των προϊόντων τους. Υπό αυτές τις συνθήκες, είναι αδύνατο για το κοινό να καταλήξει σε συμπεράσματα σχετικά με το τι είδους λάθη είναι λογικά ή όχι”, λέει ο έγγραφο.

Εκτός από τη φορητότητα των δεδομένων και την ελευθερία να αρνηθεί τη χρήση της τεχνητής νοημοσύνης σε μια διαδικασία λήψης αποφάσεων, η παροχή προσφυγής σε άτομα αποτελεί ουσιαστικό μέρος ενός Αλγοριθμικοί εμπειρογνώμονες της Νομικής του Δικαιωμάτων AI προτάθηκε πέρυσι. Σε μια άλλη πρόσφατη πρωτοβουλία ενθαρρύνοντας την εταιρεία να προσαρμοστεί για να φιλοξενήσει AI, τον περασμένο μήνα Το Άμστερνταμ και το Ελσίνκι έχουν κυκλοφορήσει εκδόσεις beta των καταχωρητών αλγορίθμων για να επιτρέψει στους κατοίκους να επιθεωρήσουν τις εκτιμήσεις κινδύνου και προκατάληψης, να προσδιορίσουν σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση συστημάτων AI και να βρουν γρήγορα τον αξιωματούχο της πόλης και το τμήμα της πόλης υπεύθυνο για την εφαρμογή αυτού του συστήματος AI.



[via]

Απάντηση

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.