Οι ερευνητές εξετάζουν τις ηθικές επιπτώσεις της τεχνητής νοημοσύνης σε χειρουργικά περιβάλλοντα

Οι ερευνητές εξετάζουν τις ηθικές επιπτώσεις της τεχνητής νοημοσύνης σε χειρουργικά περιβάλλοντα


ΕΝΑ νέα λευκή ταινίαΟ συν-συγγραφέας ερευνητών από το Vector Institute for Synthetic Intelligence εξετάζει την ηθική του AI στη χειρουργική επέμβαση, υποστηρίζοντας ότι η χειρουργική επέμβαση και το AI έχουν παρόμοιες προσδοκίες αλλά αποκλίνουν από την ηθική κατανόηση. Οι χειρουργοί αντιμετωπίζουν προφανή ηθικά και ηθικά διλήμματα, επισημαίνει το έγγραφο, ενώ οι ηθικές δομές στην τεχνητή νοημοσύνη πιθανότατα έχουν αρχίσει να διαμορφώνονται.

Στη χειρουργική επέμβαση, οι εφαρμογές τεχνητής νοημοσύνης περιορίζονται σε μεγάλο βαθμό σε μηχανήματα που εκτελούν εργασίες που ελέγχονται εξ ολοκλήρου από χειρουργούς. Η τεχνητή νοημοσύνη θα μπορούσε επίσης να χρησιμοποιηθεί ως σύστημα υποστήριξης για κλινικές αποφάσεις και, υπό αυτές τις συνθήκες, το βάρος της ευθύνης βαρύνει τους ανθρώπινους σχεδιαστές του μηχανήματος ή το σύστημα τεχνητής νοημοσύνης, λένε οι συν-συγγραφείς.

Το απόρρητο αποτελεί σημαντικό ηθικό ζήτημα. Η τεχνητή νοημοσύνη μαθαίνει να κάνει προβλέψεις από μεγάλα σύνολα δεδομένων, ιδιαίτερα από δεδομένα ασθενών, στην περίπτωση χειρουργικών συστημάτων, και συχνά περιγράφεται ως αντίθετη με τις πρακτικές απορρήτου. Το Royal Absolutely free London NHS Foundation Believe in, τμήμα της Εθνικής Υπηρεσίας Υγείας του Ηνωμένου Βασιλείου με έδρα το Λονδίνο, υπό την προϋπόθεση DeepMind του Alphabet με δεδομένα για 1,6 εκατομμύρια ασθενείς χωρίς τη συγκατάθεσή τους. Ξεχωριστά, η Google, της οποίας η κοινή χρήση δεδομένων υγείας Σχέση με την Ανάληψη που τέθηκε υπό έλεγχο τον περασμένο Νοέμβριο, εγκαταλειμμένος σχεδιάζει να δημοσιεύσει σαρώσεις ακτινογραφίας στο στήθος για φόβους που περιέχουν προσωπικά αναγνωρίσιμες πληροφορίες.

Οι πολιτειακοί, τοπικοί και ομοσπονδιακοί νόμοι έχουν ως στόχο να καταστήσουν το απόρρητο υποχρεωτικό μέρος της διαχείρισης συμμόρφωσης. Εκατοντάδες λογαριασμοί απορρήτου, ασφάλειας στον κυβερνοχώρο και παραβίασης δεδομένων εκκρεμούν ή έχουν ήδη εγκριθεί σε 50 πολιτείες, περιοχές και περιοχές της Κολούμπια. Ίσως το πιο πλήρες απ ‘όλα – το Νόμος περί απορρήτου των καταναλωτών στην Καλιφόρνια – είχε υπογραφεί πριν από δύο χρόνια. Για να μην αναφέρουμε το νόμο περί φορητότητας και λογοδοσίας για την ασφάλιση υγείας (HIPAA), ο οποίος απαιτεί από τις εταιρείες να ζητήσουν άδεια πριν από την αποκάλυψη μεμονωμένων πληροφοριών για την υγεία. Και τα διεθνή πλαίσια όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων της ΕΕ (GDPR) στοχεύουν να δώσουν στους καταναλωτές μεγαλύτερο έλεγχο στη συλλογή και χρήση προσωπικών δεδομένων.

Ωστόσο, οι συν-συγγραφείς της Λευκής Βίβλου υποστηρίζουν ότι τα μέτρα που έχουν ληφθεί μέχρι στιγμής περιορίζονται από δικαιοδοτικές ερμηνείες και προσφέρουν ελλιπή ηθικά πρότυπα. Για παράδειγμα, το HIPAA επικεντρώνεται σε δεδομένα υγειονομικής περίθαλψης από αρχεία ασθενών, αλλά δεν καλύπτει πηγές δεδομένων που δημιουργούνται εκτός καλυπτόμενων οντοτήτων, όπως εταιρείες ασφάλισης ζωής ή εφαρμογές ζώνης φυσικής κατάστασης. Επιπλέον, ενώ το καθήκον της αυτονομίας του ασθενούς παραπέμπει σε δικαίωμα εξήγησης των αποφάσεων που λαμβάνονται από το AI, στελέχη όπως το GDPR επιβάλλουν μόνο ένα «δικαίωμα στην ενημέρωση» και δεν φαίνεται να έχουν μια γλώσσα που να επιβεβαιώνει σαφείς εγγυήσεις κατά της διαδικασίας. λήψη αποφάσης.

Επιπλέον, οι συν-συγγραφείς εκπέμπουν συναγερμό για τις πιθανές επιπτώσεις του προκατάληψη σε χειρουργικά συστήματα τεχνητής νοημοσύνης. Η παραμόρφωση των δεδομένων εκπαίδευσης, η οποία αφορά την ποιότητα και την αντιπροσωπευτικότητα των δεδομένων που χρησιμοποιούνται σε ένα σύστημα AI, θα μπορούσε να έχει δραματική επίδραση στην προεγχειρητική διαστρωμάτωση του κινδύνου πριν από τη χειρουργική επέμβαση. Η υποεκπροσώπηση των δημογραφικών στοιχείων θα μπορούσε επίσης να προκαλέσει ανακριβείς εκτιμήσεις, οδηγώντας σε ατελείς αποφάσεις σαν ένας ασθενής να υποβληθεί σε πρώτη θεραπεία ή εάν προσέφερε άφθονους πόρους σε εντατική περίθαλψη. Και η παραμόρφωση των συμφραζομένων, η οποία συμβαίνει όταν ένας αλγόριθμος χρησιμοποιείται εκτός του πλαισίου της εκπαίδευσής του, θα μπορούσε να οδηγήσει σε ένα σύστημα που αγνοεί μη ασήμαντες προειδοποιήσεις σαν ένας χειρουργός να είναι δεξιόχειρος ή αριστερός.

Υπάρχουν τρόποι μετριασμού αυτής της προκατάληψης, συμπεριλαμβανομένης της διασφάλισης διακύμανσης στο σύνολο δεδομένων και της ευαισθησίας υπερβολική τοποθέτηση σχετικά με τα δεδομένα εκπαίδευσης και την προθυμία των ανθρώπων να εξετάσουν νέα δεδομένα καθώς διανέμονται. Οι συν-συγγραφείς υποστηρίζουν τη χρήση αυτών και τη διαφάνεια γενικά για να αποτρέψουν την αυτονομία του ασθενούς από το να τεθεί σε κίνδυνο. “Ναι, η αυξανόμενη εξάρτηση από τα αυτοματοποιημένα εργαλεία λήψης αποφάσεων έχει μειώσει την ευκαιρία για ουσιαστικό διάλογο μεταξύ του επαγγελματία υγείας και του ασθενούς”, έγραψαν. «Εάν η μηχανική μάθηση είναι στα σπάργανα, το υποπεδίο που είναι υπεύθυνο για την εξήγηση των εσωτερικών μηχανισμών είναι τόσο εμβρυϊκό που ακόμη και η ορολογία του δεν έχει ακόμη διαμορφωθεί με αναγνωρίσιμο τρόπο. Ωστόσο, έχουν αναδυθεί αρκετές θεμελιώδεις ιδιότητες της επεξήγησης … [that argue] η μηχανική μάθηση πρέπει να είναι
ταυτόχρονη, αποσύνθεση και αλγοριθμικά διαφανής. “

Παρά τις ανεπάρκειες της τεχνητής νοημοσύνης, ιδιαίτερα στο πλαίσιο της χειρουργικής επέμβασης, οι συν-συγγραφείς υποστηρίζουν ότι η ζημιά που μπορεί να αποτρέψει η AI υπερτερεί των μειονεκτημάτων της υιοθεσίας. Για παράδειγμα, στην θυρεοειδεκτομή, υπάρχει κίνδυνος μόνιμου υποπαραθυρεοειδισμού και επαναλαμβανόμενου τραυματισμού των νεύρων. Μπορεί να χρειαστούν χιλιάδες διαδικασίες με μια νέα μέθοδο για να παρατηρηθούν στατιστικά σημαντικές αλλαγές, τις οποίες ένας χειρουργός δεν μπορούσε ποτέ να παρατηρήσει – τουλάχιστον όχι σε σύντομο χρονικό διάστημα. Ωστόσο, ένα αποθετήριο ανάλυσης που βασίζεται σε AI που συγκεντρώνει αυτές τις χιλιάδες περιπτώσεις από εκατοντάδες ιστότοπους θα μπορούσε να διακρίνει και να επικοινωνήσει αυτά τα σημαντικά μοντέλα.

«Η συνεχής τεχνολογική πρόοδος στην τεχνητή νοημοσύνη σπέρνει ραγδαίες αυξήσεις στο εύρος και το βάθος των λειτουργιών τους. Εξαιρώντας από την καμπύλη προόδου, μπορούμε να προβλέψουμε ότι τα μηχανήματα θα γίνουν πιο αυτόνομα, “έγραψαν οι συντάκτες. “Η αύξηση της αυτονομίας απαιτεί περισσότερη προσοχή στον ηθικό ορίζοντα που πρέπει να εξετάσουμε … Όπως η ηθική λήψη αποφάσεων στην τρέχουσα πρακτική, η μηχανική μάθηση δεν θα είναι αποτελεσματική εάν σχεδιάζεται απλώς από την επιτροπή – απαιτεί έκθεση στον πραγματικό κόσμο “.



[via]

Απάντηση

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.