Οι ομοσπονδιακές ρυθμιστικές αρχές των ΗΠΑ προειδοποιούν για πρώτη φορά ότι η χρήση τεχνητής νοημοσύνης θέτει σε κίνδυνο το χρηματοπιστωτικό σύστημα.
Συγκεκριμένα, το Συμβούλιο Εποπτείας Χρηματοπιστωτικής Σταθερότητας (FSOC), μια ομάδα κορυφαίων ρυθμιστικών αρχών σε όλη την κυβέρνηση των ΗΠΑ, κατέταξε επισήμως την Πέμπτη την τεχνητή νοημοσύνη ως «αναδυόμενη ευπάθεια».
Thank you for reading this post, don't forget to subscribe!Τα εξελιγμένα μοντέλα τεχνητής νοημοσύνης έχουν εκτιναχθεί σε δημοτικότητα τα τελευταία χρόνια, ακόμη και καθώς πολλά εξέχοντα ονόματα στον τομέα λένε ότι η εκκολαπτόμενη τεχνολογία θα μπορούσε να έχει καταστροφικά αποτελέσματα εάν αναπτυχθεί εκτός ελέγχου.
«Η τεχνητή νοημοσύνη έχει τη δυνατότητα να τονώσει την καινοτομία και να προωθήσει την αποτελεσματικότητα, αλλά η χρήση της στις χρηματοοικονομικές υπηρεσίες απαιτεί προσεκτική εφαρμογή και επίβλεψη για τη διαχείριση πιθανών κινδύνων», προειδοποίησε η FSOC στην ετήσια έκθεσή της την Πέμπτη.
Το FSOC, που δημιουργήθηκε μετά την οικονομική κρίση του 2008 και είναι υπό την ηγεσία της υπουργού Οικονομικών των ΗΠΑ Janet Yellen, προειδοποίησε ότι η τεχνητή νοημοσύνη μπορεί να «εισάγει ορισμένους κινδύνους», συμπεριλαμβανομένων σοβαρών ζητημάτων όσον αφορά την ασφάλεια στον κυβερνοχώρο, των κινδύνων συμμόρφωσης και των ζητημάτων απορρήτου.
Οι ρυθμιστικές αρχές εξέφρασαν επίσης την ανησυχία τους σχετικά με τους «περίπλοκους παράγοντες» που σχετίζονται με παραγωγικά μοντέλα τεχνητής νοημοσύνης όπως το ChatGPT. Για παράδειγμα, το συμβούλιο επισήμανε τους κινδύνους για την ασφάλεια των δεδομένων, την προστασία των καταναλωτών και το απόρρητο που δημιουργούνται από χρηματοπιστωτικές εταιρείες που χρησιμοποιούν γενετική τεχνητή νοημοσύνη. Και επισήμαναν ότι τέτοιου είδους μοντέλα τεχνητής νοημοσύνης μπορούν να παράγουν ελαττωματικά αποτελέσματα γνωστά ως «ψευδαισθήσεις».
Ένα αδιαπέραστο μαύρο κουτί
Μια άλλη ανησυχία για τις ρυθμιστικές αρχές είναι ότι ορισμένα μοντέλα τεχνητής νοημοσύνης λειτουργούν ως «μαύρα κουτιά» –που σημαίνει ότι η εσωτερική τους λειτουργία είναι αδιαπέραστη.
Το FSOC είπε ότι αυτή «η έλλειψη «επεξηγησιμότητας» μπορεί να καταστήσει δύσκολη την αξιολόγηση της εννοιολογικής ορθότητας του συστήματος, αυξάνοντας την αβεβαιότητα σχετικά με την καταλληλότητα και την αξιοπιστία τους». Με άλλα λόγια, εάν οι τράπεζες βασίζονται σε μυστηριώδη μοντέλα τεχνητής νοημοσύνης, αυτό καθιστά δύσκολο να κατανοήσουμε πόσο ανθεκτικά είναι πραγματικά τα υποκείμενα συστήματά τους.
Σχετικά, οι ρυθμιστικές αρχές εξέφρασαν την ανησυχία τους για το πώς αυτά τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να «παράγουν και ενδεχομένως να συγκαλύπτουν μεροληπτικά ή ανακριβή αποτελέσματα». Αυτό με τη σειρά του θα προκαλούσε ανησυχίες σχετικά με τον δίκαιο δανεισμό και άλλα ζητήματα προστασίας των καταναλωτών, είπε το FSOC.
Οι επενδύσεις και η υιοθέτηση της τεχνητής νοημοσύνης έχουν εκτιναχθεί, παρόλο που ορισμένοι ειδικοί προειδοποιούν για τους σοβαρούς κινδύνους της συγκεκριμένης τεχνολογίας. Ο Πρόεδρος Joe Biden υπέγραψε πρόσφατα εκτελεστικό διάταγμα που δίνει εντολή στις ομοσπονδιακές υπηρεσίες να λάβουν μέτρα για να διασφαλίσουν την σωστή ανάπτυξη της τεχνητής νοημοσύνης, η οποία είναι ένας αναπτυσσόμενος τομέας επενδύσεων.
«Τα λάθη και οι προκαταλήψεις μπορεί να γίνουν ακόμη πιο δύσκολο να εντοπιστούν και να διορθωθούν καθώς οι προσεγγίσεις τεχνητής νοημοσύνης αυξάνονται σε πολυπλοκότητα, υπογραμμίζοντας την ανάγκη επαγρύπνησης από τους προγραμματιστές της τεχνολογίας, τις εταιρείες του χρηματοοικονομικού τομέα που τη χρησιμοποιούν και τις ρυθμιστικές αρχές που επιβλέπουν τέτοιες εταιρείες», δήλωσε το FSOC.
Η δημοτικότητα του ChatGPT και άλλων εργαλείων παραγωγικής τεχνητής νοημοσύνης, τα οποία χρησιμοποιούν μεγάλα μοντέλα γλώσσας για τον εντοπισμό μοτίβων σε δεδομένα και τη δημιουργία κειμένου και εικόνων, έχει επιταχύνει το ενδιαφέρον για την τεχνητή νοημοσύνη.