businewss.gr

Τα μεγάλα γλωσσικά μοντέλα των εταιρειών τεχνητής νοημοσύνης στην Κίνα υποβάλλονται τώρα σε κυβερνητική αξιολόγηση, με στόχο να διασφαλιστεί ότι «ενσωματώνουν τις βασικές σοσιαλιστικές αξίες», όπως αναφέρει δημοσίευμα των Financial Times.

Η αξιολόγηση διεξάγεται από την Διοίκηση Κυβερνοχώρου της Κίνας (CAC), την κορυφαία ρυθμιστική αρχή της κυβέρνησης για το Διαδίκτυο, και θα καλύψει παίκτες σε όλο το φάσμα, από τεχνολογικούς «γίγαντες» όπως η ByteDance και η Alibaba μέχρι μικρές νεοφυείς επιχειρήσεις.

Σύμφωνα με τους FT, τα μοντέλα τεχνητής νοημοσύνης θα δοκιμαστούν από τοπικούς αξιωματούχους της CAC για τις απαντήσεις τους σε μια ποικιλία ερωτήσεων, πολλές από τις οποίες αφορούν ευαίσθητα πολιτικά θέματα αλλά και τον Κινέζο πρόεδρο Σι Τζινπίνγκ. Θα αξιολογηθούν επίσης τόσο τα δεδομένα εκπαίδευσης του μοντέλου (training data) όσο και οι διαδικασίες ασφαλείας.

Όπως ανέφερε ανώνυμη πηγή από εταιρεία τεχνητής νοημοσύνης με έδρα το Χανγκτσόου, η οποία μίλησε με τους Financial Times, το μοντέλο τους δεν πέρασε την πρώτη φάση των δοκιμών για «αδιευκρίνιστους λόγους». Πέρασαν μόνο τη δεύτερη φορά μετά από μήνες «εικασιών και προσαρμογών», όπως γράφει η έκθεση του μεγάλου βρετανικού μέσου.

Οι τελευταίες προσπάθειες της Διοίκησης Κυβερνοχώρου της Κίνας (CAC) καταδεικνύουν πώς το Πεκίνο ισορροπεί ανάμεσα στο να προλάβει τις ΗΠΑ στην Γενετική Τεχνητή Νοημοσύνη (Generative AI), ενώ παράλληλα παρακολουθεί στενά την ανάπτυξη της τεχνολογίας, διασφαλίζοντας ότι το περιεχόμενο που παράγει η ΑΙ συμμορφώνεται με τις αυστηρές πολιτικές λογοκρισίας που εφαρμόζει η χώρα στο διαδίκτυο.

Σημειώνεται ότι η Κίνα ήταν από τις πρώτες χώρες που οριστικοποίησαν πέρυσι τους κανόνες για τη Generative AI, συμπεριλαμβανομένης της απαίτησης οι υπηρεσίες τεχνητής νοημοσύνης να συμμορφώνονται με τις «βασικές αξίες του σοσιαλισμού» και να μην παράγουν «παράνομο» περιεχόμενο.

Όπως ανέφεραν πολλοί μηχανικοί και ειδικοί του κλάδου που μίλησαν στους FT, η τήρηση των πολιτικών λογοκρισίας απαιτεί «φιλτράρισμα ασφαλείας» και έχει καταστεί περίπλοκη, καθώς τα μεγάλα κινέζικα γλωσσικά μοντέλα (LLMs*) εξακολουθούν να εκπαιδεύονται σε μεγάλο όγκο αγγλόφωνου περιεχομένου.

Σύμφωνα με την έκθεση, το φιλτράρισμα γίνεται με την αφαίρεση «προβληματικών πληροφοριών» από τα δεδομένα εκπαίδευσης των μοντέλων ΑΙ και στη συνέχεια με τη δημιουργία μιας βάσης δεδομένων με λέξεις και φράσεις που θεωρούνται ευαίσθητες.

Οι κανονισμοί φέρεται να έχουν οδηγήσει τα πιο δημοφιλή chatbots της χώρας να αρνούνται συχνά να απαντήσουν σε ερωτήσεις για ευαίσθητα πολιτικά και κοινωνικά θέματα, όπως οι διαδηλώσεις στην πλατεία Τιενανμέν το 1989.

Ωστόσο, κατά τη διάρκεια των δοκιμών της CAC, υπάρχει όριο στον αριθμό ερωτήσεων που τα LLMs μπορούν να απορρίψουν ευθέως, πράγμα που σημαίνει ότι τα μεγάλα γλωσσικά μοντέλα πρέπει να είναι σε θέση να παράγουν «πολιτικά ορθές απαντήσεις» σε ευαίσθητες ερωτήσεις.

Ένας ειδικός στην Τεχνητή Νοημοσύνη που εργάζεται σε chatbot στην Κίνα δήλωσε στους FT ότι είναι δύσκολο να αποτρέψει κανείς τα γλωσσικά μοντέλα από το να παράγουν όλο το δυνητικά κακόβουλο περιεχόμενο που «αντιμάχονται» οι ρυθμιστικές αρχές της χώρας, γι’ αυτό και προσθέτουν ένα επιπλέον επίπεδο στο σύστημα που αντικαθιστά τις προβληματικές απαντήσεις σε πραγματικό χρόνο.

Οι κανονισμοί, όπως και οι αμερικανικές κυρώσεις που έχουν περιορίσει την πρόσβαση σε τσιπ για την εκπαίδευση των LLMs, έχουν καταστήσει δύσκολο για τις κινεζικές εταιρείες να λανσάρουν υπηρεσίες παρόμοιες με το ChatGPT. Παρόλα αυτά, η Κίνα κυριαρχεί στην παγκόσμια κούρσα για τις πατέντες στη Γενετική Τεχνητή Νοημοσύνη.

*LLMs είναι τα “Large Language Models” («Μεγάλα Γλωσσικά Μοντέλα»). Πρόκειται για προηγμένα μοντέλα τεχνητής νοημοσύνης που εκπαιδεύονται να κατανοούν και να παράγουν ανθρώπινη γλώσσα, χρησιμοποιώντας μεγάλα σύνολα δεδομένων και προηγμένες τεχνικές μηχανικής μάθησης.

Πηγή: moneyreview.gr