Είναι επικίνδυνη, η ραγδαία εξέλιξη της τεχνητής νοημοσύνης, για τον άνθρωπο;

Η Μισέλ Μπασλέτ, Διευθύντρια του τμήματος ανθρωπίνων δικαιωμάτων στον ΟΗΕ, θέλει να δεσμευτούν οι χώρες υπογράφοντας μορατόριουμ που θα αποκλείει ανάπτυξη συστημάτων τεχνητής νοημοσύνης όταν θίγονται τα ανθρώπινα δικαιώματα.

Πιο συγκεκριμένα μίλησε για την αναγνώριση προσώπου, ως παράδειγμα πως μπορεί να φυλακίσει τον άνθρωπο παραβιάζοντας το άρθρο της κάθε χώρας περί ‘Ελεύθερης Μετακίνησής’. 

Χρειάζεται επείγουσα δράση για τους κινδύνους τεχνητής νοημοσύνης για τα ανθρώπινα δικαιώματα

Τα κράτη πρέπει να θέσουν μορατόριουμ στην πώληση και τη χρήση συστημάτων τεχνητής νοημοσύνης (AI) έως ότου τεθούν σε ισχύ επαρκείς εγγυήσεις, δήλωσε η επικεφαλής των Ηνωμένων Εθνών για τα ανθρώπινα δικαιώματα, Michelle Bachelet, την Τετάρτη. 

Απαιτείται επείγουσα δράση καθώς μπορεί να χρειαστεί χρόνος για να εκτιμηθούν και να αντιμετωπιστούν οι σοβαροί κίνδυνοι που θέτει αυτή η τεχνολογία για τα ανθρώπινα δικαιώματα, προειδοποίησε ο Highπατος Αρμοστής: «Όσο υψηλότερος είναι ο κίνδυνος για τα ανθρώπινα δικαιώματα, τόσο πιο αυστηρές θα είναι οι νομικές απαιτήσεις για τη χρήση της τεχνολογίας τεχνητής νοημοσύνης ”. 

Η κα Bachelet ζήτησε επίσης να απαγορευτούν οι εφαρμογές AI που δεν μπορούν να χρησιμοποιηθούν σύμφωνα με το διεθνές δίκαιο για τα ανθρώπινα δικαιώματα. «Η τεχνητή νοημοσύνη μπορεί να είναι μια δύναμη για το καλό, βοηθώντας τις κοινωνίες να ξεπεράσουν μερικές από τις μεγάλες προκλήσεις της εποχής μας. Αλλά οι τεχνολογίες τεχνητής νοημοσύνης μπορούν να έχουν αρνητικές, ακόμη και καταστροφικές επιπτώσεις, εάν χρησιμοποιηθούν χωρίς να ληφθεί επαρκώς υπόψη ο τρόπος με τον οποίο επηρεάζουν τα ανθρώπινα δικαιώματα των ανθρώπων ». 

Αποκαλύψεις spyware Pegasus 

Την Τρίτη, η επικεφαλής των δικαιωμάτων του ΟΗΕ εξέφρασε την ανησυχία της για το «πρωτοφανές επίπεδο παρακολούθησης σε όλο τον κόσμο από κρατικούς και ιδιωτικούς φορείς», το οποίο επέμεινε ότι ήταν «ασυμβίβαστο» με τα ανθρώπινα δικαιώματα. 

Ήταν  μιλώντας  σε μια συνεδρίαση του Συμβουλίου της Ευρώπης σχετικά με τις συνέπειες που απορρέουν από τον Ιούλιο του  διαμάχη Pegasus spyware . 

Οι αποκαλύψεις του Πήγασου δεν αποτέλεσαν έκπληξη για πολλούς ανθρώπους, είπε η κ. Bachelet στην Επιτροπή Νομικών Θεμάτων και Ανθρωπίνων Δικαιωμάτων του Συμβουλίου της Ευρώπης, αναφερόμενη στην ευρεία χρήση λογισμικού υποκλοπής που εμπορεύτηκε η ομάδα NSO, η οποία επηρέασε χιλιάδες ανθρώπους σε 45 χώρες σε τέσσερις χώρες. ηπείρων. 

«Υψηλή τιμή», χωρίς δράση 

Η πρόσκληση της Highπατης Αρμοστείας ήρθε καθώς το γραφείο της, OHCHR , δημοσίευσε μια έκθεση που αναλύει πώς η τεχνητή νοημοσύνη επηρεάζει το δικαίωμα των ανθρώπων στην ιδιωτικότητα και άλλα δικαιώματα, συμπεριλαμβανομένων των δικαιωμάτων στην υγεία, την εκπαίδευση, την ελεύθερη κυκλοφορία, την ελευθερία της ειρηνικής συγκέντρωσης και του συνεταιρισμού και την ελευθερία της έκφρασης Το 

Το έγγραφο περιλαμβάνει μια αξιολόγηση του προφίλ, της αυτοματοποιημένης λήψης αποφάσεων και άλλων τεχνολογιών μηχανικής μάθησης. 

Η κατάσταση είναι «τρομερή» δήλωσε ο Τιμ Ένγκελχαρντ, Υπεύθυνος Ανθρωπίνων Δικαιωμάτων, Τμήμα Κράτους Δικαίου και Δημοκρατίας, ο οποίος μίλησε κατά την παρουσίαση της έκθεσης στη Γενεύη την Τετάρτη. 

Η κατάσταση «δεν βελτιώθηκε με τα χρόνια αλλά χειροτέρεψε», είπε. 

Χαιρετίζοντας «τη συμφωνία της Ευρωπαϊκής Ένωσης για ενίσχυση των κανόνων ελέγχου» και «την ανάπτυξη διεθνών εθελοντικών δεσμεύσεων και μηχανισμών λογοδοσίας», προειδοποίησε ότι «δεν πιστεύουμε ότι θα έχουμε λύση το επόμενο έτος, αλλά τα πρώτα βήματα πρέπει να ληφθούν τώρα, διαφορετικά πολλοί άνθρωποι στον κόσμο θα πληρώσουν ένα υψηλό τίμημα ». 

Η Διευθύντρια Θεματικής Αφοσίωσης του OHCHR, Πέγκυ Χικς, πρόσθεσε στην προειδοποίηση του κ. Ένγκελχαρντ, δηλώνοντας «δεν πρόκειται για τους κινδύνους στο μέλλον, αλλά για την πραγματικότητα σήμερα. Χωρίς εκτεταμένες μετατοπίσεις, οι ζημιές θα πολλαπλασιαστούν με κλίμακα και ταχύτητα και δεν θα γνωρίζουμε την έκταση του προβλήματος ». 

Αποτυχία δέουσας επιμέλειας 

Σύμφωνα με την έκθεση, τα κράτη και οι επιχειρήσεις συχνά έσπευσαν να ενσωματώσουν εφαρμογές τεχνητής νοημοσύνης, αποτυγχάνοντας να εκτελέσουν τη δέουσα επιμέλεια. Αναφέρει ότι υπήρξαν πολλές περιπτώσεις ατόμων που αντιμετωπίζονται άδικα λόγω κακής χρήσης τεχνητής νοημοσύνης, όπως η άρνηση παροχών κοινωνικής ασφάλισης λόγω ελαττωματικών εργαλείων τεχνητής νοημοσύνης ή η σύλληψη λόγω ελαττωματικού λογισμικού αναγνώρισης προσώπου. 

Διακριτικά δεδομένα 

Το έγγραφο περιγράφει λεπτομερώς πώς τα συστήματα AI βασίζονται σε μεγάλα σύνολα δεδομένων, με πληροφορίες σχετικά με άτομα που συλλέγονται, μοιράζονται, συγχωνεύονται και αναλύονται με πολλαπλούς και συχνά αδιαφανείς τρόπους. 

Τα δεδομένα που χρησιμοποιούνται για την ενημέρωση και καθοδήγηση των συστημάτων τεχνητής νοημοσύνης μπορεί να είναι ελαττωματικά, να εισάγουν διακρίσεις, να είναι παλιά ή άσχετα, υποστηρίζει, προσθέτοντας ότι η μακροπρόθεσμη αποθήκευση δεδομένων ενέχει επίσης ιδιαίτερους κινδύνους, καθώς τα δεδομένα θα μπορούσαν στο μέλλον να αξιοποιηθούν με άγνωστους ακόμη τρόπους Το 

«Δεδομένης της ταχείας και συνεχούς ανάπτυξης της Τεχνητής Νοημοσύνης, η κάλυψη του τεράστιου κενού λογοδοσίας στον τρόπο συλλογής, αποθήκευσης, κοινής χρήσης και χρήσης των δεδομένων είναι ένα από τα πιο επείγοντα ερωτήματα για τα ανθρώπινα δικαιώματα που αντιμετωπίζουμε», είπε η κ. Bachelet. 

Η έκθεση ανέφερε επίσης ότι θα πρέπει να εγείρονται σοβαρά ερωτήματα σχετικά με τα συμπεράσματα, τις προβλέψεις και την παρακολούθηση από εργαλεία τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αναζήτησης πληροφοριών για τα πρότυπα της ανθρώπινης συμπεριφοράς. 

Διαπίστωσε ότι τα προκατειλημμένα σύνολα δεδομένων που βασίζονται σε συστήματα τεχνητής νοημοσύνης μπορούν να οδηγήσουν σε διακρίσεις, οι οποίες αποτελούν σοβαρούς κινδύνους για ήδη περιθωριοποιημένες ομάδες. «Αυτός είναι ο λόγος για τον οποίο πρέπει να υπάρχει συστηματική εκτίμηση και παρακολούθηση των επιπτώσεων των συστημάτων τεχνητής νοημοσύνης για τον εντοπισμό και τον μετριασμό των κινδύνων για τα ανθρώπινα δικαιώματα», πρόσθεσε. 

Βιομετρικές τεχνολογίες 

Μια ολοένα και πιο ολοκληρωμένη λύση για τα κράτη, τους διεθνείς οργανισμούς και τις εταιρείες τεχνολογίας είναι οι βιομετρικές τεχνολογίες, για τις οποίες η έκθεση αναφέρει ότι είναι ένας τομέας «όπου απαιτείται περισσότερη καθοδήγηση για τα ανθρώπινα δικαιώματα επειγόντως». 

Αυτές οι τεχνολογίες, που περιλαμβάνουν αναγνώριση προσώπου, χρησιμοποιούνται όλο και περισσότερο για τον εντοπισμό ατόμων σε πραγματικό χρόνο και από απόσταση, επιτρέποντας ενδεχομένως απεριόριστη παρακολούθηση ατόμων. 

Η έκθεση επαναλαμβάνει ζητεί ένα μορατόριουμ στη χρήση τους σε δημόσιους χώρους, τουλάχιστον μέχρι οι αρχές να αποδείξουν ότι δεν υπάρχουν σημαντικά ζητήματα με ακρίβεια ή διακρίσεις και ότι αυτά τα συστήματα τεχνητής νοημοσύνης συμμορφώνονται με ισχυρά πρότυπα απορρήτου και προστασίας δεδομένων. 

Χρειάζεται μεγαλύτερη διαφάνεια 

Το έγγραφο υπογραμμίζει επίσης την ανάγκη για πολύ μεγαλύτερη διαφάνεια από εταιρείες και κράτη σχετικά με τον τρόπο ανάπτυξης και χρήσης της τεχνητής νοημοσύνης.  

«Η πολυπλοκότητα του περιβάλλοντος δεδομένων, οι αλγόριθμοι και τα μοντέλα που βασίζονται στην ανάπτυξη και τη λειτουργία των συστημάτων τεχνητής νοημοσύνης, καθώς και το σκόπιμο απόρρητο των κυβερνητικών και ιδιωτικών παραγόντων είναι παράγοντες που υπονομεύουν ουσιαστικούς τρόπους για το κοινό να κατανοήσει τις επιπτώσεις των συστημάτων τεχνητής νοημοσύνης στα ανθρώπινα δικαιώματα και την κοινωνία. », Αναφέρεται στην έκθεση. 

Τα προστατευτικά κάγκελα είναι απαραίτητα 

«Δεν έχουμε την πολυτέλεια να συνεχίσουμε να παίζουμε για την τεχνητή νοημοσύνη-επιτρέποντας τη χρήση της με περιορισμένα ή χωρίς όρια ή επίβλεψη και την αντιμετώπιση των σχεδόν αναπόφευκτων συνεπειών των ανθρωπίνων δικαιωμάτων μετά το γεγονός. 

«Η δύναμη της τεχνητής νοημοσύνης να εξυπηρετεί τους ανθρώπους είναι αδιαμφισβήτητη, αλλά το ίδιο και η ικανότητα της τεχνητής νοημοσύνης να τροφοδοτεί τις παραβιάσεις των ανθρωπίνων δικαιωμάτων σε τεράστια κλίμακα χωρίς σχεδόν ορατότητα. Απαιτείται δράση τώρα για να τεθούν τα προστατευτικά κάγκελα των ανθρωπίνων δικαιωμάτων στη χρήση της τεχνητής νοημοσύνης, για το καλό όλων μας », τόνισε η κ. Bachelet. 

https://news.un.org

loading...