Άρθρο της Jul Parke
Υποψηφίας διδάκτορος στους τομείς Μ.Μ.Ε., Τεχνολογίας και Πολιτισμού
στο Πανεπιστήμιο του Τορόντο
Καθώς οι τεχνολογίες Τεχνητής Νοημοσύνης αναπτύσσονται με επιταχυνόμενους ρυθμούς, οι μέθοδοι εταιρικής διακυβέρνησης και διαδικτυακών πλατφορμών συνεχίζουν να εγείρουν ηθικές και νομικές ανησυχίες.
Στον Καναδά, πολλοί θεωρούν τους προτεινόμενους νόμους για την ρύθμιση των υπηρεσιών Τεχνητής Νοημοσύνης ως επίθεση στην ελευθερία του λόγου και ως αυθαίρετου κυβερνητικού ελέγχου στις εταιρείες τεχνολογίας. Αυτή η αντίδραση προήλθε από υποστηρικτές της ελευθερίας του λόγου, δεξιές προσωπικότητες και φιλελεύθερους ηγέτες.
Ωστόσο, αυτοί οι επικριτές θα πρέπει έχουν κατά νου μια οδυνηρή περίπτωση από τη Νότιο Κορέα που προσφέρει σημαντικά μαθήματα σχετικά με τους κινδύνους των τεχνολογιών Τεχνητής Νοημοσύνης που αντιμετωπίζει το κοινό, και σχετικά με την κρίσιμη ανάγκη για προστασία των δεδομένων των χρηστών.
Στα τέλη του 2020, το Iruda (ή «Lee Luda»), ένα chatbot Τεχνητής Νοημοσύνης, έγινε μεγάλη αίσθηση στη Νότιο Κορέα σε σύντομο χρονικό διάστημα. Τα chatbot Τεχνητής Νοημοσύνης είναι προγράμματα υπολογιστών που προσομοιώνουν τη συνομιλία με τους ανθρώπους. Σε αυτή την περίπτωση, το chatbot σχεδιάστηκε σαν μια 21χρονη φοιτήτρια κολεγίου με εύθυμη προσωπικότητα. Το Iruda, που διαφημίστηκε ως μία συναρπαστική «φίλη Τεχνητής Νοημοσύνης», προσέλκυσε περισσότερους από 750.000 χρήστες σε λιγότερο από ένα μήνα.
Όμως, μέσα σε λίγες εβδομάδες, το Iruda κατέληξε να αποτελεί παράδειγμα περιπτωσιολογικής μελέτης της διαδικτυακής ηθικής και καταλύτης για την αντιμετώπιση της έλλειψης διακυβέρνησης ηλεκτρονικών δεδομένων στη Νότιο Κορέα. Σύντομα άρχισε να απαντάει με ανησυχητικούς τρόπους και να εκφράζεται με μίσος. Η κατάσταση επιταχύνθηκε και επιδεινώθηκε από την αυξανόμενη κουλτούρα του ψηφιακού σεξισμού και της σεξουαλικής παρενόχλησης στο διαδίκτυο.
Δημιουργόντας ένα σεξιστικό, γεμάτο μίσος chatbot
Η Scatter Lab, η νεοσύστατη επιχείρηση τεχνολογίας που δημιούργησε το Iruda, είχε ήδη αναπτύξει δημοφιλείς εφαρμογές που ανέλυαν συναισθήματα σε μηνύματα κειμένου και προσέφεραν συμβουλές για ρομαντικές συναντήσεις. Στη συνέχεια, η εταιρεία χρησιμοποίησε δεδομένα από αυτές τις εφαρμογές για να «εκπαιδεύσει» το Iruda σε συνομιλίες με ανθρώπους που προσομοίαζαν οικειότητα. Ωστόσο, η εταιρεία δεν αποκάλυψε σαφώς στους χρήστες ότι τα προσωπικά τους μηνύματα θα χρησιμοποιηθούν για την εκπαίδευση του chatbot.
Τα προβλήματα ξεκίνησαν όταν οι χρήστες παρατήρησαν πως το Iruda επαναλάμβανε κατά λέξη προσωπικές συνομιλίες από τις εφαρμογές συμβουλών γνωριμιών της εταιρείας. Αυτές οι απαντήσεις περιελάμβαναν πολύ αληθοφανή ονόματα, στοιχεία πιστωτικών καρτών και διευθύνσεις κατοικίας, με αποτέλεσμα να ακολουθήσει έρευνα των αρχών.
Το chatbot άρχισε επίσης να εκφράζει μεροληπτικές και γεμάτες μίσος απόψεις. Έρευνες μέσων ενημέρωσης, διαπίστωσαν ότι αυτό συνέβη αφού συγκεκριμένοι χρήστες το «εκπαίδευσαν» σκόπιμα με «τοξική γλώσσα». Μερικοί χρήστες δημοφιλών διαδικτυακών ανδρικών φόρουμ, έφτασαν στο σημείο να δημιουργήσουν και να δημοσιεύσουν οδηγούς χρήσης για το πώς να κάνουν το Iruda να συμπεριφέρεται σαν «σκλάβα του σεξ». Έτσι, το Iruda άρχισε να απαντά στις προτροπές των χρηστών με σεξιστική, ομοφοβική και σεξουαλικά προσανατολισμένη ρητορική μίσους.
Αυτό προκάλεσε σοβαρές ανησυχίες σχετικά με τον τρόπο λειτουργίας της Τεχνητής Νοημοσύνης και των εταιρειών τεχνολογίας. Το περιστατικό με το Iruda εγείρει επίσης ανησυχίες πέρα από την πολιτική και τη νομοθεσία για την Τεχνητή Νοημοσύνη και τις εταιρείες τεχνολογίας. Αυτό που συνέβη με το Iruda πρέπει να εξεταστεί σε ένα ευρύτερο πλαίσιο διαδικτυακής σεξουαλικής παρενόχλησης στη Νότιο Κορέα.
Ένα μοτίβο ψηφιακής παρενόχλησης
Νοτιοκορεάτες ακαδημαϊκοί που ασχολούνται με τον φεμινισμό, έχουν τεκμηριώσει τους τρόπους με τους οποίους οι ψηφιακές πλατφόρμες έχουν μετατραπεί σε πεδία μάχης με βάση το φύλο, εξαπολύοντας συντονισμένες εκστρατείες που στοχεύουν γυναίκες που μιλούν ανοιχτά για φεμινιστικά ζητήματα. Τα μέσα κοινωνικής δικτύωσης ενισχύουν αυτή τη δυναμική, δημιουργώντας αυτό που ο Αμερικανο – Κορεάτης ερευνητής Jiyeon Kim αποκαλεί «δικτυωμένο μισογυνισμό».
Η Νότιος Κορέα, η πατρίδα του ριζοσπαστικού φεμινιστικού κινήματος 4Β (το οποίο αντιπροσωπεύει τέσσερις τύπους άρνησης κατά των ανδρών: όχι ραντεβού, γάμος, σεξ ή παιδιά), παρέχει ένα πρώιμο παράδειγμα των εντατικοποιημένων συνομιλιών με βάση το φύλο που εμφανίζονται συνήθως στο διαδίκτυο παγκοσμίως. Όπως επισημαίνει ο δημοσιογράφος Hawon Jung, η διαφθορά και η κακοποίηση που αποκάλυψε η περίπτωση του Iruda προήλθαν από υπάρχουσες κοινωνικές εντάσεις και νομικά πλαίσια που αρνούνταν να αντιμετωπίσουν τον διαδικτυακό μισογυνισμό. Ο Jung έχει γράψει εκτενώς για τον αγώνα δεκαετιών για τη δίωξη χρηστών κρυφών καμερών και δραστών εκδικητικού πορνό.
Πέρα από την ιδιωτικότητα: Το ανθρώπινο κόστος
Φυσικά, το Iruda ήταν μόνο ένα περιστατικό. Ο κόσμος έχει δει πολλές άλλες περιπτώσεις που καταδεικνύουν πώς οι φαινομενικά αβλαβείς εφαρμογές όπως τα chatbot Τεχνητής Νοημοσύνης μπορούν, χωρίς την κατάλληλη επίβλεψη, να γίνουν οχήματα παρενόχλησης και κατάχρησης.
Αυτά περιλαμβάνουν το Tay.ai της Microsoft του 2016, το οποίο χειραγωγήθηκε από χρήστες για να εκτοξεύσει αντισημιτικά και μισογυνικά tweets. Πιο πρόσφατα, ένα προσαρμοσμένο chatbot στο Character.AI θεωρήθηκε πως συνέβαλε στην αυτοκτονία ενός εφήβου.
Τα chatbots – τα οποία εμφανίζονται ως συμπαθείς χαρακτήρες που μοιάζουν όλο και πιο «ανθρώπινοι» με τις γρήγορες τεχνολογικές εξελίξεις – είναι μηχανισμοί εξοπλισμένοι να εξάγουν (σ. Π/Β και να καταγράφουν/επεξεργάζονται) βαθιά προσωπικές πληροφορίες από τους χρήστες τους.
Αυτοί οι ελκυστικοί και φιλικοί χαρακτήρες της Τεχνητής Νοημοσύνης αποτελούν παράδειγμα αυτού που οι μελετητές της τεχνολογίας Neda Atanasoski και Kalindi Vora περιγράφουν ως τη λογική της «υποκατάστατης ανθρωπότητας» – στην οποία τα συστήματα Τεχνητής Νοημοσύνης έχουν σχεδιαστεί για να υποστηρίξουν την ανθρώπινη αλληλεπίδραση αλλά καταλήγουν να ενισχύουν τις υπάρχουσες κοινωνικές ανισότητες.
Ηθική Τεχνητής Νοημοσύνης
Στη Νότιο Κορέα, το κλείσιμο του Iruda πυροδότησε μια εθνική συζήτηση σχετικά με την ηθική της Τεχνητής Νοημοσύνης και τα δικαιώματα που αφορούν στα φηψιακά δεδομένα. Η κυβέρνηση ανταποκρίθηκε δημιουργώντας νέες κατευθυντήριες γραμμές της Τεχνητής Νοημοσύνης και επιβάλλοντας πρόστιμο 103 εκατομμυρίων γουόν στην Scatter Lab (71.000 δολάρια ΗΠΑ).
Ωστόσο, οι Κορεάτες νομικοί μελετητές Chea Yun Jung και Kyun Kyong Joo σημειώνουν ότι αυτά τα μέτρα έδωσαν έμφαση κυρίως στην αυτορρύθμιση εντός της τεχνολογικής βιομηχανίας, παρά στην αντιμετώπιση βαθύτερων διαρθρωτικών ζητημάτων. Τα μέτρα δεν εξέτασαν τους τρόπους με τους οποίους το Iruda κατέληξε να είναι ένας μηχανισμός διάδοσης μισογύγικων πεποιθήσεων και επιθετικότητας με βάση το φύλο, μέσω της τεχνολογίας βαθιάς μάθησης (Deep Learning Technology).
Σε τελική ανάλυση, η αντιμετώπιση της ρύθμισης της Tεχνητής Nοημοσύνης ως ένα εταιρικό ζήτημα (σ.Π/Β: δλδ μέσω της «αυτορύθμισης») πολύ απλά δεν αρκεί. Ο τρόπος με τον οποίο αυτά τα chatbot εξάγουν ιδιωτικά δεδομένα και χτίζουν σχέσεις με ανθρώπους -χρήστες σημαίνει ότι οι φεμινιστικές απόψεις και οι απόψεις που βασίζονται στις ανθρώπινες κοινότητες είναι απαραίτητες προκειμένου να ελεγχθούν αποτελεσματικά οι εταιρείες τεχνολογίας.
Έπειτα από αυτό το περιστατικό, το Scatter Lab συνεργάζεται με ερευνητές για να καταδείξει τα οφέλη των chatbots.
Στον Καναδά, ο προτεινόμενος νόμος περί Τεχνητής Νοημοσύνης και Δεδομένων και ο νόμος για τις Διαδικτυακές Βλάβες εξακολουθούν να διαμορφώνονται, και τα όρια αυτού που συνιστά ένα σύστημα Τεχνητής Νοημοσύνης «μεγάλου αντίκτυπου» παραμένουν ακαθόριστα
Η πρόκληση για τους Καναδούς υπεύθυνους χάραξης πολιτικής, είναι να δημιουργήσουν πλαίσια που θα προστατεύουν την καινοτομία, αποτρέποντας ταυτόχρονα τη συστημική κατάχρηση από προγραμματιστές και κακόβουλους χρήστες. Αυτό σημαίνει την ανάπτυξη σαφών κατευθυντήριων γραμμών σχετικά με τη συγκατάθεση δεδομένων, την εφαρμογή συστημάτων για την πρόληψη της κατάχρησης και τη θέσπιση ουσιαστικών μέτρων λογοδοσίας.
Καθώς η Τεχνητή Νοημοσύνη ενσωματώνεται περισσότερο στην καθημερινή μας ζωή, αυτές οι ανησυχίες θα γίνονται όλο και πιό πιο κρίσιμες. Η «υπόθεση Iruda» καταδεικνύει πως, όσον αφορά στη ρύθμιση της Τεχνητής Νοημοσύνης, είναι αναγκαίο να σκεφτούμε πέρα από τις τεχνικές προδιαγραφές και να εξετάσουμε τις πολύ πραγματικές ανθρώπινες επιπτώσεις αυτών των τεχνολογιών.
Απόδοση: Πετροβούβαλος/ Αβέρωφ
Πηγή: The Conversation (αναδημοσιεύεται υπό την άδεια Creative Commons), Αβέρωφ