Θα δούμε το “Minority Report” στην πραγματικότητα!?


Δεν ξέρω πόσοι από εσάς έχετε δει την ταινία Minority Report με τον Τομ Κρουζ, αλλά αυτά που διαβάζω μου θύμισαν πολύ την ταινία….

Σε ένα νέο βιβλίο που θα κυκλοφορήσει άμεσα από τις εκδόσεις Springer Nature, μια ομάδα ακαδημαϊκών και ερευνητών από το Harrisburg University της Πενσιλβάνια των ΗΠΑ περιγράφουν ένα νέο σύστημα που έφτιαξαν και μπορεί να προβλέψει τους εγκληματίες κοιτώντας απλώς το πρόσωπο των ανθρώπων.

«Με 80% ακρίβεια και χωρίς φυλετική προκατάληψη, το λογισμικό μπορεί να προβλέψει αν κάποιος είναι εγκληματίας βασιζόμενο αποκλειστικά σε μια φωτογραφία του προσώπου του. Το πρόγραμμα προορίζεται να βοηθήσει την αστυνομία να αποτρέπει το έγκλημα», γράφουν οι πανεπιστημιακοί στο δελτίο Τύπου.

Ανήσυχοι για τις πολλές και προβληματικές παραδοχές και επιπτώσεις που μπορεί να έχει η εφαρμογή «στατιστικών ποινικού συστήματος για την πρόβλεψη της εγκληματικότητας», ειδικοί από ένα ευρύ φάσμα επιστημονικών και τεχνολογικών πεδίων απάντησαν με ανοιχτή επιστολή στην ανακάλυψη.

«Ας είμαστε ειλικρινείς», γράφουν, «δεν υπάρχει τρόπος να αναπτυχθεί ένα σύστημα που να μπορεί να προβλέψει ή να αναγνωρίσει την ‘‘εγκληματικότητα’’ που να μην είναι φυλετικά προκατειλημμένο, επειδή ακριβώς η ίδια η κατηγορία της ‘‘εγκληματικότητας’’ είναι φυλετικά προκατειλημμένη».

Και καταλήγουν: «Δεδομένα που εκπορεύονται από το ποινικό σύστημα δεν μπορούν να χρησιμοποιηθούν για να ‘‘αναγνωρίζονται οι εγκληματίες’’ ή να προβλέπεται η εγκληματική συμπεριφορά. Ποτέ».

Κι αυτό γιατί, όπως ισχυρίζονται οι επιστήμονες, τέτοια δεδομένα από ποινικά συστήματα δεν είναι ποτέ αξιόπιστα ή ουδέτερα, παρά αντανακλάσεις των πολιτικών και πρακτικών των εκάστοτε συστημάτων, αλλά και των ιστορικών και σημερινών προκαταλήψεων.

«Αναρίθμητες μελέτες έχουν δείξει πως οι άνθρωποι άλλων φυλών αντιμετωπίζονται πιο σκληρά από λευκούς σε αντίστοιχες καταστάσεις σε κάθε μάλιστα στάδιο της απονομής δικαιοσύνης, γεγονός που καταλήγει σε σοβαρή στρέβλωση των στοιχείων», τονίζει η ομάδα που υπογράφει ως Coalition for Critical Technology.

Δεν μπορεί να βασίζεται ένας αλγόριθμος που προβλέπει την εγκληματικότητα σε φυλετικά χαρακτηριστικά του προσώπου, καταλήγουν και καλούν τον εκδοτικό να μην εκδώσει το βιβλίο.

Στην κατακραυγή απάντησε το πανεπιστήμιο λέγοντας πως «όλες οι έρευνες που γίνονται στους χώρους του πανεπιστημίου δεν αντανακλούν κατ’ ανάγκη τις απόψεις και τους σκοπούς του πανεπιστημίου», τονίζοντας μάλιστα πως το τμήμα «επικαιροποιεί τη μελέτη για να αντανακλά τις ανησυχίες που διατυπώνονται»…

 

Εσείς πάντως μην ξεχάσετε να γραφτείτε στις ειδοποιήσεις μας , ώστε να ενημερωθείτε πρώτοι, να κάνετε Like & Share την σελίδα μας στο Facebook  ή να γραφτείτε στο κανάλι μας στο Telegram . Μπορείτε επίσης να γραφτείτε και στο κανάλι του iTechNews.gr στο  Youtube, όπου μπορείτε να βρείτε πάρα πολλές παρουσιάσεις που έχουμε κάνει! Μην ξεχνάτε να προτιμάτε το iTechNews.gr για τις αγορές σας από τα διάφορα κινεζομάγαζα, βοηθάει όλους, και εσάς, καθότι ότι παίρνω γίνονται συνήθως δώρα σε διαγωνισμούς. Πατήστε στα παρακάτω links ακριβώς πριν κάνετε την αγορά και τίποτα άλλο μέχρι να την ολοκληρώσετε


Στην περίπτωση που θέλετε ν’ αντιγράψετε ή να χρησιμοποιήσετε μέρος ή ολόκληρο το άρθρο, μπορείτε να το κάνετε εφόσον αναφέρετε σαν πηγή το iTechNews.gr.


 

 

Πηγή: https://www.newsbeast.gr/

Μοίρασε την γνώση…



[via]

Απάντηση

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.