Μια νέα έρευνα από την Harmonic Security αποκαλύπτει ότι σχεδόν ένας στους 12 εργαζόμενους χρησιμοποιεί κινεζικά εργαλεία γενετικής τεχνητής νοημοσύνης (GenAI) στην εργασία, εκθέτοντας ευαίσθητα δεδομένα στην διαδικασία . Η έρευνα, η οποία ανέλυσε τη συμπεριφορά περίπου 14.000 τελικών χρηστών στις ΗΠΑ και το Ηνωμένο Βασίλειο, διαπίστωσε ότι το 7,95% των χρηστών χρησιμοποίησαν τουλάχιστον μία κινεζική εφαρμογή GenAI κατά τη διάρκεια μιας περιόδου 30 ημερών .
Από τους 1.059 χρήστες που αλληλεπίδρασαν με αυτά τα εργαλεία, η Harmonic Security εντόπισε 535 περιστατικά έκθεσης ευαίσθητων δεδομένων . Η πλειονότητα της έκθεσης προήλθε από το DeepSeek, το οποίο αντιπροσώπευε περίπου το 85% των περιστατικών, ακολουθούμενο από τα Moonshot Kimi, Qwen, Baidu Chat και Manus . Όσον αφορά τα είδη των ευαίσθητων δεδομένων που εκτέθηκαν, ο κώδικας και τα артефакты ανάπτυξης αποτελούσαν τη μεγαλύτερη κατηγορία, αντιπροσωπεύοντας το 32,8% του συνόλου . Αυτό περιελάμβανε ιδιόκτητο κώδικα, κλειδιά πρόσβασης και εσωτερική λογική .
Οι οργανισμοί με έντονη δραστηριότητα μηχανικής βρέθηκαν να είναι ιδιαίτερα εκτεθειμένοι, καθώς οι προγραμματιστές στρέφονται όλο και περισσότερο στην GenAI για βοήθεια στην κωδικοποίηση, ενδεχομένως χωρίς να συνειδητοποιούν τις συνέπειες της υποβολής εσωτερικού πηγαίου κώδικα, κλειδιών API ή αρχιτεκτονικής συστήματος σε μοντέλα που φιλοξενούνται στο εξωτερικό . Ο Alastair Paterson, Διευθύνων Σύμβουλος και συνιδρυτής της Harmonic Security, σχολιάζει: «Όλα τα δεδομένα που υποβάλλονται σε αυτές τις πλατφόρμες θα πρέπει να θεωρούνται ιδιοκτησία του Κινεζικού Κομμουνιστικού Κόμματος, δεδομένης της πλήρους έλλειψης διαφάνειας σχετικά με την διατήρηση δεδομένων, την επαναχρησιμοποίηση εισόδου και τις πολιτικές εκπαίδευσης μοντέλων, εκθέτοντας τους οργανισμούς σε δυνητικά σοβαρές νομικές και κανονιστικές ευθύνες .»
Επιπλέον, η έρευνα αποκάλυψε ότι οι εργαζόμενοι χρησιμοποιούν κατά μέσο όρο 254 εφαρμογές με δυνατότητα AI στο χώρο εργασίας, με το 7% να πειραματίζονται με εφαρμογές που εδρεύουν στην Κίνα . Η ανάλυση εξέτασε 176.460 προτροπές που υποβλήθηκαν σε διάφορες πλατφόρμες Generative AI από 8.000 τελικούς χρήστες σε διάφορες εταιρείες κατά το πρώτο τρίμηνο του 2025 . Η μελέτη αποκάλυψε ότι το 6,7% όλων των προτροπών που εξετάστηκαν ενδέχεται να αποκάλυψαν εταιρικά δεδομένα .
Για να μετριάσει αυτούς τους κινδύνους, η Harmonic Security συνιστά την εκπαίδευση των εργαζομένων σχετικά με τους κινδύνους χρήσης μη εγκεκριμένων εργαλείων GenAI, ιδίως πλατφορμών που φιλοξενούνται στην Κίνα . Συνιστά επίσης την παροχή εναλλακτικών λύσεων μέσω εγκεκριμένων εργαλείων GenAI που ικανοποιούν τις ανάγκες των προγραμματιστών και των επιχειρήσεων . Τέλος, είναι σημαντικό να επιβληθούν πολιτικές που αποτρέπουν την αποστολή ευαίσθητων δεδομένων, ιδίως πηγαίου κώδικα, σε μη εξουσιοδοτημένες εφαρμογές . Οι οργανισμοί που αποφεύγουν τον γενικό αποκλεισμό και αντ' αυτού εφαρμόζουν ελαφριά μέτρα προστασίας και προτροπές βλέπουν έως και μείωση έως και 72% στην έκθεση ευαίσθητων δεδομένων, ενώ αυξάνουν την υιοθέτηση της τεχνητής νοημοσύνης έως και 300% .