Νέο εργαλείο Τεχνητής Νοημοσύνης προβλέπει τη συμπεριφορά και τη δυσπιστία των ανθρώπων απέναντι στα εμβόλια…

Σύμφωνα με τους ερευνητές του Πανεπιστημίου του Σινσινάτι που ανέπτυξαν το εργαλείο, «παρά τις εντολές εμβολιασμού για το COVID-19, πολλοί επέλεξαν να αποφύγουν τον εμβολιασμό, εγείροντας ερωτήματα σχετικά με την ψυχολογία που κρύβεται πίσω από τη κρίση του ατόμου που επηρεάζει αυτές τις επιλογές»…

Σύμφωνα με το Πανεπιστήμιο του Σινσινάτι, το νέο εργαλείο τεχνητής νοημοσύνης «χρησιμοποιεί ένα μικρό σύνολο δεδομένων από δημογραφικά στοιχεία και προσωπικές κρίσεις, όπως η αποστροφή για τον κίνδυνο ή την απώλεια» για να προσδιορίσει πρότυπα «ανταμοιβής και κρίσης αποστροφής» στους ανθρώπους που μπορεί να εξηγήσουν την προθυμία κάποιου να λάβει ένα εμβόλιο, αναγνωρίζοντας έτσι εκείνους που δεν θα επιθυμούν να εμβολιαστούν…

Μια ομάδα ερευνητών έχει αναπτύξει ένα « ισχυρό νέο εργαλείο τεχνητής νοημοσύνης » (AI) που μπορεί να προβλέψει εάν κάποιος είναι ή δεν είναι πιθανό να κάνει εμβόλιο για τον COVID-19.

Σύμφωνα με το Πανεπιστήμιο του Σινσινάτι, το νέο εργαλείο τεχνητής νοημοσύνης «χρησιμοποιεί ένα μικρό σύνολο δεδομένων από δημογραφικά στοιχεία και προσωπικές κρίσεις, όπως η αποστροφή για τον κίνδυνο ή την απώλεια» για να προσδιορίσει πρότυπα «ανταμοιβής και κρίσης αποστροφής» στους ανθρώπους που μπορεί να εξηγήσουν την προθυμία κάποιου να λάβει ένα εμβολιο .

Οι ερευνητές παρουσίασαν τα ευρήματά τους σε μια μελέτη που δημοσιεύθηκε στο Journal of Medical Internet Research Public Health and Surveillance .

Τα ευρήματα της μελέτης “θα μπορούσαν να έχουν ευρείες εφαρμογές για την πρόβλεψη της ψυχικής υγείας και να οδηγήσουν σε πιο αποτελεσματικές εκστρατείες δημόσιας υγείας”, ανέφερε το πανεπιστήμιο.

Σύμφωνα με τη μελέτη, “παρά τις εντολές για το εμβόλιο COVID-19, πολλοί επέλεξαν να αποφύγουν τον εμβολιασμό, εγείροντας ερωτήματα σχετικά με την ψυχολογία που διέπει τον τρόπο με τον οποίο η κρίση επηρεάζει αυτές τις επιλογές”.

Οι ερευνητές υποστηρίζουν ότι τα ευρήματά τους “καταδεικνύουν την υποκείμενη σημασία των μεταβλητών κρίσης για την επιλογή και την πρόσληψη εμβολίων, γεγονός που υποδηλώνει ότι η εκπαίδευση και τα μηνύματα για τα εμβόλια θα μπορούσαν να στοχεύουν σε διαφορετικά προφίλ κρίσης για να βελτιώσουν την συναίνεσή τους”.

Αλλά επικριτές όπως ο Brian Hooker, Ph.D., επικεφαλής επιστημονικός υπεύθυνος της οργάνωσης Children’s Health Defense, δήλωσαν ότι η νέα τεχνολογία υπονοεί ότι όσοι αμφισβητούν τα εμβόλια έχουν προβλήματα ψυχικής υγείας :

“Το όλο υπονοούμενο εδώ είναι ότι η μη συμμόρφωση με το πρότυπο φροντίδας της κυβερνητικής προπαγανδιστικής μηχανής καθιστά κάποιον κάποιο είδος ψυχικής περίπτωσης ή ακραία περιθωριακό άτομο. Το όλο πράγμα μυρίζει έναν Θαυμαστό Νέο Κόσμο όπου τα δυνητικά μη συμμορφούμενα άτομα στοχοποιούνται με μηνύματα που βασίζονται στο φόβο και τον παραλογισμό”.

Ο Hooker δήλωσε ότι η νέα τεχνολογία “είναι ένα προκατασκευασμένο υποκατάστατο σε αυτό που αποφεύγουν η Μεγάλη Φαρμακευτική και οι κυβερνητικές υπηρεσίες υγείας: ορθολογικές συζητήσεις για την επιστήμη και την ιατρική που θα μπορούσαν να αποκαλύψουν την αλήθεια σχετικά με τις ανεπιθύμητες ενέργειες των εμβολίων”.

Η Nicole Vike, Ph.D., ανώτερος ερευνητικός συνεργάτης στο Κολέγιο Μηχανικής και Εφαρμοσμένων Επιστημών του Πανεπιστημίου του Σινσινάτι, ήταν η κύρια συγγραφέας της εργασίας.

“Το COVID-19 είναι απίθανο να είναι η τελευταία πανδημία που θα δούμε τις επόμενες δεκαετίες”, δήλωσε η Vike. “Η ύπαρξη μιας νέας μορφής τεχνητής νοημοσύνης για την πρόβλεψη στη δημόσια υγεία παρέχει ένα πολύτιμο εργαλείο που θα μπορούσε να βοηθήσει στην προετοιμασία των νοσοκομείων για την πρόβλεψη των ποσοστών εμβολιασμού και των συνακόλουθων ποσοστών μόλυνσης”.

Οι συγγραφείς της μελέτης δήλωσαν ότι η τεχνολογία θα μπορούσε επίσης να χρησιμοποιηθεί για να “βοηθήσει την ανάπτυξη εμβολίων και την ετοιμότητα της υγειονομικής περίθαλψης παρέχοντας λεπτομέρειες σχετικά με την τοποθεσία” – με άλλα λόγια, προσδιορίζοντας γεωγραφικές περιοχές που μπορεί να εμφανίσουν χαμηλά ποσοστά εμβολιασμού και υψηλά ποσοστά νοσηλείας, σύμφωνα με τη μελέτη.

Οι επικριτές αμφισβήτησαν τους ισχυρισμούς της μελέτης και δήλωσαν επίσης ότι ανησυχούν για τις πιθανές ανεπιθύμητες χρήσεις αυτής της τεχνολογίας.

“Το κύριο πρόβλημα με έρευνες όπως αυτή είναι η υποκείμενη παραδοχή: Η διστακτικότητα στα εμβόλια πρέπει να εξηγείται από την άποψη της (ανώμαλης) ψυχολογίας των υποκειμένων και όχι σε σχέση με την αποτελεσματικότητα και την ασφάλεια του/των εν λόγω εμβολίου/ων”, δήλωσε ο Michael Rectenwald, Ph.D., συγγραφέας του βιβλίου “Google Archipelago: Το ψηφιακό Γκουλάγκ και η προσομοίωση της ελευθερίας”.

Ως αποτέλεσμα, είπε ο Rectenwald, υπονοείται ότι “αν οι άνθρωποι είναι επιφυλακτικοί απέναντι στα εμβόλια, το σφάλμα οφείλεται σε αυτούς και όχι στο ίδιο το εμβόλιο. Από αυτή την παραδοχή, η έρευνα προσπαθεί να δικαιολογήσει τον εμβολιασμό ως φυσιολογικό, συνδέοντας ανώμαλα νοητικά και ψυχολογικά χαρακτηριστικά με τη διστακτικότητα στο εμβόλιο”.

Αυτό μπορεί να οδηγήσει σε στοχοποίηση ατόμων, δήλωσε ο Rectenwald:

“Η χρήση της τεχνητής νοημοσύνης για την πρόβλεψη της διστακτικότητας στο εμβόλιο με αυτούς τους όρους θα μπορούσε να περιλαμβάνει την κινητοποίηση προγραμμάτων τεχνητής νοημοσύνης για τη στόχευση και ακόμη και τον εντοπισμό μεμονωμένων ατόμων με διστακτικότητα στο εμβόλιο. Θα μπορούσαμε επίσης να περιμένουμε προγράμματα ΤΝ που θα προσπαθούν να ξεπεράσουν τη διστακτικότητα στο εμβόλιο με προσπάθειες “επαναπρογραμματισμού” των εν λόγω “ελαττωματικών υποκειμένων”.

“Ο εντοπισμός, η στόχευση και η επανεκπαίδευση των ατόμων που διστάζουν να εμβολιαστούν είναι τουλάχιστον, στα σκαριά”.

Ο Scott C. Tips, πρόεδρος της Εθνικής Ομοσπονδίας Υγείας, δήλωσε ότι η νέα τεχνολογία εγείρει ανησυχίες για την προστασία της ιδιωτικής ζωής.

Ο Tips δήλωσε: “Δεν αφορά κανέναν άλλον παρά μόνο το άτομο, αν θέλει να εμβολιαστεί. Γιατί χρειάζεται κάποιος να προβλέπει τις αποφάσεις για την υγεία; Η “προγνωστική” τεχνητή νοημοσύνη σε αυτό το θέμα δεν είναι παρά μια λύση που αναζητά ένα πρόβλημα. Δεν υπάρχει κανένα πρόβλημα εδώ. Στην πραγματικότητα, θα πρέπει να είμαστε ευτυχείς που υπάρχουν άνθρωποι που δεν θέλουν να εμβολιαστούν”.

Ομοίως, η Δρ Kat Lindley, πρόεδρος του Global Health Project και διευθύντρια της Παγκόσμιας Συνόδου Κορυφής Covid, συμφώνησε. “Υπάρχουν πολλοί λόγοι για τους οποίους κάποιος μπορεί να είναι διστακτικός απέναντι στον εμβολιασμό, και το να στηριζόμαστε σε ένα πρόγραμμα, όσο έξυπνο κι αν είναι, για να προβλέψουμε το αποτέλεσμα, φοβάμαι ότι θα υποτιμήσουμε τον ανθρώπινο παράγοντα και τις ατομικές εμπειρίες”.

Οι επικριτές αμφισβητούν επίσης τους ισχυρισμούς σχετικά με την αποτελεσματικότητα της τεχνολογίας. “Η τεχνητή νοημοσύνη είναι τόσο καλή όσο ο προγραμματιστής και οι παράμετροι που της δόθηκαν, οι οποίες περιλαμβάνουν επίσης τις προκαταλήψεις με τις οποίες δημιουργήθηκε”, δήλωσε η Lindley.

Ο Tim Hinchliffe , συντάκτης του The Sociable , είπε: «Έχουμε δει πώς το ChatGPT φτύνει ανοησίες και είδαμε την καταστροφή της διαφορετικότητας που ήταν το Google Gemini , οπότε θα ήταν καλύτερο να προσεγγίσουμε τα αποτελέσματα με προσοχή. Και όταν υπάρχει ομαδοποίηση τεχνητής νοημοσύνης-ανθρώπου, τα αποτελέσματα μπορεί ακόμα να είναι προκατειλημμένα».

«Το «Σκουπίδια μέσα, τα σκουπίδια έξω» ισχύει εξίσου για αποφάσεις και αποτελέσματα που βασίζονται στην τεχνητή νοημοσύνη όσο ισχύει για οποιεσδήποτε άλλες αποφάσεις ή αποτελέσματα που λαμβάνονται από ανθρώπους και «χαζούς» υπολογιστές», είπε ο Tips. «Εάν η τεχνητή νοημοσύνη αναζητά τις απαντήσεις της σε αρχεία και δεδομένα που είναι μόνο mainstream, τότε θα καταλήξει σε εσφαλμένα και μεροληπτικά αποτελέσματα».

«Ποιοι θα είναι οι επόμενοι στόχοι αυτού του μηχανισμού πρόβλεψης της ανθρώπινης συμπεριφοράς;»

Άλλοι ειδικοί πρότειναν ότι οι κυβερνήσεις θα μπορούσαν να κάνουν κατάχρηση της τεχνολογίας και να την οπλίσουν εναντίον του κοινού.

«Είναι ενδεικτικό της κατάστασης της ιατρικής και των προτεραιοτήτων της ομοσπονδιακής κυβέρνησής μας να βλέπουμε να γίνεται περισσότερη έρευνα σχετικά με το πώς να αυξηθεί η απορρόφηση οποιουδήποτε προϊόντος που ορίζουν ως εμβόλιο, παρά να γίνουν οι μελέτες ασφάλειας για τις οποίες φώναζε το κοινό. », δήλωσε η Valerie Borek, αναπληρώτρια διευθύντρια και επικεφαλής αναλυτής πολιτικής για το Stand For Health Freedom .

«Αυτή η μελέτη ταιριάζει με την προσέγγιση πολλών δεκαετιών στη χρήση της ψυχολογίας και του υποσυνείδητου μας για να προωθήσουμε προϊόντα και ατζέντες», είπε. «Υπάρχει ήδη τεχνολογία που μπορεί να αξιολογήσει βιομετρικά δεδομένα όπως ο καρδιακός ρυθμός, η θερμοκρασία και οι κινήσεις των ματιών, σε συνδυασμό με πληροφορίες ήχου και τοποθεσίας».

Αναφέροντας ένα παράδειγμα, ο Μπόρεκ είπε ότι τα Κέντρα Ελέγχου και Πρόληψης Νοσημάτων «έχουν ήδη ιστορικό χρήσης δεδομένων κινητών τηλεφώνων για την επιτήρηση της δημόσιας υγείας ».

Ο Μπόρεκ πρόσθεσε:

«Η κυβέρνηση έχει πάρα πολλά δεδομένα για να διερευνήσει, επομένως η χρήση της τεχνητής νοημοσύνης είναι αναπόφευκτη για την επιτήρηση της δημόσιας υγείας. Πόσο καιρό πριν οι συσκευές που φοράμε και μεταφέρουμε οικειοθελώς χρησιμοποιηθούν για προβλέψεις τεχνητής νοημοσύνης των επιλογών υγείας μας;

«Θα οδηγήσουν αυτές οι προβλέψεις σε κυβερνητικές παρεμβάσεις; Πρέπει να θέσουμε αυτές τις ερωτήσεις στους νομοθέτες μας και να κάνουμε ό,τι μπορούμε για να ελαχιστοποιήσουμε το ψηφιακό μας αποτύπωμα».

Σύμφωνα με τον Hinchliffe:

«Εάν «το AI μπορεί να προβλέψει τη στάση των ανθρώπων», τότε η πρόβλεψη της λεγόμενης διστακτικότητας εμβολίων θα ήταν μόνο η αρχή. Τι ακολουθεί? Πρόβλεψη ποιος είναι αρνητής του κλίματος; Τι γίνεται με την πρόβλεψη της στάσης των ανθρώπων απέναντι στους προεδρικούς υποψηφίους και ποιους πιθανότατα θα ψηφίσουν; Ποιος χρειάζεται εκλογές όταν η τεχνητή νοημοσύνη ξέρει ήδη ποιος θα κερδίσει ;

«Τι γίνεται όταν τα προγράμματα επανεκπαίδευσης και προπαγάνδας δεν λειτουργούν; Τα δεδομένα για την πρόβλεψη της στάσης των ανθρώπων θα πάνε στις κυβερνήσεις, ώστε να μπορέσουν να καταπολεμήσουν τους αντιφρονούντες; Ποιοι θα είναι οι επόμενοι στόχοι αυτού του μηχανισμού πρόβλεψης στάσεων; Η εικασία μου θα ήταν άνθρωποι που είναι «διστακτικοί» σχετικά με την αφήγηση της κλιματικής αλλαγής .»

Η μελέτη ισχυρίζεται ότι η τεχνητή νοημοσύνη μπορεί να «κάνει ακριβείς προβλέψεις για τις ανθρώπινες συμπεριφορές»

Σύμφωνα με την ανακοίνωση του Πανεπιστημίου του Σινσινάτι , η ανάπτυξη του νέου εργαλείου AI βασίστηκε σε έρευνα που διεξήχθη στις ΗΠΑ το 2021, στην οποία συμμετείχαν ένα αντιπροσωπευτικό δείγμα 3.476 ενηλίκων. Οι ερωτηθέντες «παρείχαν πληροφορίες όπως το πού ζουν, το εισόδημα, το υψηλότερο επίπεδο εκπαίδευσης που έχουν ολοκληρώσει, την εθνικότητα και την πρόσβαση στο διαδίκτυο».

Οι συμμετέχοντες ρωτήθηκαν αν είχαν λάβει εμβόλιο για τον COVID-19, με περίπου το 73% των ερωτηθέντων να ανέφεραν ότι ήταν εμβολιασμένοι, «λίγο περισσότερο από το 70% του πληθυσμού της χώρας που είχε εμβολιαστεί το 2021», σύμφωνα με τη μελέτη.

Στη συνέχεια «τους ζητήθηκε να βαθμολογήσουν πόσο τους άρεσε ή δεν τους άρεσε ένα τυχαία σειρά 48 εικόνων σε μια κλίμακα επτά βαθμών από το 3 έως το -3», για να ποσοτικοποιήσουν «τα μαθηματικά χαρακτηριστικά της κρίσης των ανθρώπων καθώς παρατηρούν ήπια συναισθηματικά ερεθίσματα».

«Οι μεταβλητές κρίσης και τα δημογραφικά στοιχεία συγκρίθηκαν μεταξύ των ερωτηθέντων που εμβολιάστηκαν και εκείνων που δεν εμβολιάστηκαν. Τρεις προσεγγίσεις μηχανικής μάθησης χρησιμοποιήθηκαν για να ελεγχθεί πόσο καλά η κρίση, τα δημογραφικά στοιχεία και η στάση των ερωτηθέντων για τις προφυλάξεις για τον COVID-19 προέβλεπαν εάν θα έκαναν το εμβόλιο», αναφέρει η ανακοίνωση.

Σύμφωνα με τη μελέτη, εντοπίστηκε «ένα μικρό σύνολο δημογραφικών μεταβλητών και 15 μεταβλητές κρίσης», οι οποίες «προβλέπουν την πρόσληψη του εμβολίου με μέτρια έως υψηλή ακρίβεια και υψηλή ακρίβεια».

Η ανακοίνωση αναφέρει ότι αυτά τα ευρήματα δείχνουν «ότι η τεχνητή νοημοσύνη μπορεί να κάνει ακριβείς προβλέψεις σχετικά με τις ανθρώπινες στάσεις με εκπληκτικά λίγα δεδομένα ή να βασίζεται σε δαπανηρές και χρονοβόρες κλινικές αξιολογήσεις».

Στην ίδια ανακοίνωση ανέφερε ο Άγγελος Κατσάγγελος, δρ. , προικισμένος καθηγητής Ηλεκτρολόγων Μηχανικών και Επιστήμης Υπολογιστών στο Πανεπιστήμιο Northwestern, ο οποίος ισχυρίστηκε ότι «Η μελέτη είναι κατά των μεγάλων δεδομένων », επειδή η νέα τεχνολογία «μπορεί να λειτουργήσει πολύ απλά» και χωρίς την ανάγκη «υπερ-υπολογισμού».

«Είναι φθηνό και μπορεί να εφαρμοστεί με οποιονδήποτε έχει smartphone. Το αναφέρουμε ως υπολογιστική τεχνητή νοημοσύνη. Είναι πιθανό να δείτε άλλες αιτήσεις σχετικά με αλλαγές στην κρίση στο πολύ εγγύς μέλλον», είπε ο Κατσάγγελος.

Ο Λίντλεϋ διαφώνησε. Είπε στο The Defender «Το να αποκαλούμε αυτό το anti-big-data είναι οξύμωρο, γιατί για να μπορέσει να διεκδικήσει υψηλό επίπεδο ακρίβειας, το πρόγραμμα θα πρέπει να περιλαμβάνει υψηλό επίπεδο κατανόησης του ίδιου του δισταγμού».

«Το πρόβλημα με αυτήν την πρωτοβουλία τεχνητής νοημοσύνης είναι η προσέγγιση σε όλο τον πληθυσμό, η οποία αγνοεί τυχόν ατομικές ανησυχίες και εμπειρίες», είπε ο Lindley. «Αν έχω μάθει κάτι στην ιατρική τα τελευταία 20 χρόνια, είναι ότι το ανθρώπινο στοιχείο έχει σημασία και είναι απρόβλεπτο από τη φύση του».

“Η κορυφή του παγόβουνου”: Η τεχνητή νοημοσύνη μπορεί επίσης να χρησιμοποιηθεί για την ταχεία ανάπτυξη εμβολίων

Πρόσφατα παρουσιάστηκαν και άλλες τεχνολογίες που σχετίζονται με την ΤΝ στον τομέα της υγειονομικής περίθαλψης.

Στην ετήσια συνάντηση του Παγκόσμιου Οικονομικού Φόρουμ (WEF) τον Ιανουάριο, ο διευθύνων σύμβουλος της Pfizer, Άλμπερτ Μπούρλα, εξήρε τον ρόλο της ΤΝ στην ανάπτυξη του Paxlovid, ενός συνταγογραφούμενου φαρμάκου από το στόμα που κυκλοφορεί στην αγορά ως θεραπεία για το COVID-19.

“Αναπτύχθηκε σε τέσσερις μήνες”, δήλωσε ο Bourla, ενώ η ανάπτυξη ενός τέτοιου φαρμάκου “συνήθως διαρκεί τέσσερα χρόνια”.

Είπε ότι η τεχνητή νοημοσύνη βοήθησε να μειωθεί σημαντικά ο χρόνος που απαιτείται για τη διαδικασία “ανακάλυψης φαρμάκων”, όπου “συνθέτετε πραγματικά εκατομμύρια μόρια και στη συνέχεια προσπαθείτε να ανακαλύψετε μέσα σε αυτά, ποιο από αυτά λειτουργεί”.

Ο Μπουρλά απέδωσε σε αυτό το επίτευγμα τη διάσωση “εκατομμυρίων ζωών” και προέβλεψε περισσότερες τέτοιες εξελίξεις στο μέλλον. “Η δουλειά μας είναι να κάνουμε ανακαλύψεις που αλλάζουν τις ζωές των ασθενών”, δήλωσε ο Bourla. “Με την Τεχνητή Νοημοσύνη, μπορώ να το κάνω πιο γρήγορα και καλύτερα”.

«Πιστεύω πραγματικά ότι πρόκειται να εισέλθουμε σε μια επιστημονική αναγέννηση στις επιστήμες της ζωής λόγω αυτής της συνύπαρξης προόδου στην τεχνολογία και τη βιολογία», πρόσθεσε ο Μπουρλά. «Το AI είναι ένα πολύ ισχυρό εργαλείο. Στα χέρια κακών ανθρώπων [μπορεί να κάνει άσχημα πράγματα για τον κόσμο, αλλά στα χέρια καλών ανθρώπων [μπορεί να κάνει σπουδαία πράγματα για τον κόσμο».

Κατά τη διάρκεια της ίδιας συζήτησης στο πάνελ του WEF , ο Jeremy Hunt , υπουργός Οικονομικών του Ηνωμένου Βασιλείου , είπε ότι η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει στην ταχεία ανάπτυξη και ανάπτυξη εμβολίων.

«Όταν έχουμε την επόμενη πανδημία, δεν θέλουμε να περιμένουμε ένα χρόνο πριν πάρουμε το εμβόλιο», είπε. «Αν η τεχνητή νοημοσύνη μπορεί να συρρικνώσει τον χρόνο που χρειάζεται για να πάρει αυτό το εμβόλιο σε ένα μήνα, τότε αυτό είναι ένα τεράστιο βήμα προς τα εμπρός για την ανθρωπότητα».

Ένα έργο του WEF, το οποίο ανακοινώθηκε για πρώτη φορά το 2019, χρηματοδοτεί έρευνα σχετικά με τη χρήση «συνθετικών» δεδομένων «ασθενών» που δημιουργούνται από την τεχνητή νοημοσύνη και δεδομένων κλινικών δοκιμών «συνθετικών» .

Οι ανησυχίες σχετικά με την προγνωστική ικανότητα της τεχνητής νοημοσύνης οδήγησαν σε κάποια ενέργεια από νομοθέτες σε όλο τον κόσμο. Στις 13 Μαρτίου, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τον νόμο περί τεχνητής νοημοσύνης , ο οποίος περιέχει αρκετούς περιορισμούς και απαγορεύσεις στη χρήση της τεχνητής νοημοσύνης σε διάφορα πλαίσια.

Σύμφωνα με την Greek’s Business Daily , «Η αναγνώριση συναισθημάτων στο χώρο εργασίας και στα σχολεία, η κοινωνική βαθμολογία , η προγνωστική αστυνόμευση (όταν βασίζεται αποκλειστικά στο προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων απαγορεύονται.

Ωστόσο, για τον Hinchliffe, «Η χρήση της τεχνητής νοημοσύνης για την πρόβλεψη της στάσης των ανθρώπων απέναντι στα εμβόλια και η διστακτικότητα των εμβολίων είναι μόνο η κορυφή του παγόβουνου», καθώς η τεχνολογία AI μπορεί στη συνέχεια «να χρησιμοποιηθεί για την πρόβλεψη στάσεων για σχεδόν οτιδήποτε».

«Εάν είναι επιτυχής, η πρόβλεψη των στάσεων των ανθρώπων θα οδηγήσει στην πρόβλεψη της συμπεριφοράς τους. Το να προβλέψεις τη συμπεριφορά τους σημαίνει να γνωρίζεις περισσότερα για αυτούς από ό,τι γνωρίζουν για τον εαυτό τους», είπε. «Από τη στιγμή που οι άνθρωποι είναι « χακαρισμένοι », τότε όλα τα στοιχήματα είναι κλειστά: Μπορούν να χειραγωγηθούν και να ελέγχονται με τον πιο άθλιο τρόπο».

Πηγή: Children’s Health Defense

Γράφει ο Μιχαήλ Νεβραδάκης, Ph.D.

Απόδοση: Ελλήνων Αφύπνιση

loading...