H Anthropic Κατηγορεί Κινεζικές «AI Τίγρεις» για Απάτη: Λένε Ότι Κλέβουν Τεχνολογία από το Claude – Εθνική Ασφάλεια σε Κίνδυνο

User avatar placeholder
Written by NewsOk Team

26 Φεβρουαρίου 2026

Η αμερικανική εταιρεία τεχνητής νοημοσύνης Anthropic κατηγορεί τρεις κορυφαίες κινεζικές εταιρείες – DeepSeek, MiniMax και Moonshot AI – ότι χρησιμοποιούν παράνομα τεχνικές «κλοπής» δυνατοτήτων από το μοντέλο της Claude, μέσω μαζικής εξαγωγής δεδομένων. Σύμφωνα με την εταιρεία, αυτή η πρακτική θέτει σε κίνδυνο την εθνική ασφάλεια των ΗΠΑ, καθώς τα «κλεμμένα» μοντέλα μπορεί να στερούνται απαραίτητων μηχανισμών ασφαλείας.

Σε ανακοίνωση που δημοσίευσε στις 23 Φεβρουαρίου 2026 στο blog της, η Anthropic αποκάλυψε ότι οι τρεις κινεζικές εταιρείες δημιούργησαν πάνω από 24.000 ψεύτικους λογαριασμούς και παρήγαγαν πάνω από 16 εκατομμύρια αλληλεπιδράσεις με το Claude – μια διαδικασία γνωστή ως distillation (απόσταξη).

Η distillation είναι μια νόμιμη και διαδεδομένη μέθοδος στην βιομηχανία AI, όπου ένα μικρότερο μοντέλο εκπαιδεύεται με τις απαντήσεις ενός ισχυρότερου. Ωστόσο, οι περισσότερες κορυφαίες εταιρείες – συμπεριλαμβανομένης της Anthropic – απαγορεύουν ρητά τη χρήση των outputs τους για εκπαίδευση ανταγωνιστικών μοντέλων. Επιπλέον, το Claude δεν είναι διαθέσιμο εμπορικά στην Κίνα λόγω περιορισμών.

Πώς Λειτουργούσαν οι «Επιθέσεις»

Οι τρεις εταιρείες ακολούθησαν παρόμοιο μοτίβο:

  • Χρησιμοποίησαν proxy υπηρεσίες και ψεύτικους λογαριασμούς για να παρακάμψουν τους περιορισμούς πρόσβασης.
  • Στόχευσαν συγκεκριμένες δυνατότητες του Claude, όπως λογική σκέψη (reasoning), χρήση εργαλείων (tool use), κώδικα και agentic συμπεριφορά.

Συγκεκριμένα:

  • MiniMax: Πάνω από 13 εκατομμύρια αλληλεπιδράσεις – η μεγαλύτερη καμπάνια. Εστίασε σε coding agents και orchestration. Η Anthropic την εντόπισε ενώ ήταν ακόμα ενεργή.
  • Moonshot AI: Πάνω από 3,4 εκατομμύρια – στόχος agentic reasoning, tool use, coding και computer vision.
  • DeepSeek: Πάνω από 150.000 – πιο τεχνικά εξελιγμένη, με έμφαση σε reasoning και grading tasks.

Η Anthropic τονίζει ότι αυτές οι ενέργειες παραβιάζουν τους όρους χρήσης και υπονομεύουν τους αμερικανικούς ελέγχους εξαγωγών σε chips AI, που αποσκοπούν στο να διατηρήσουν το τεχνολογικό προβάδισμα των ΗΠΑ.

Εθνική Ασφάλεια και Κίνδυνοι

Η εταιρεία προειδοποιεί ότι τα μοντέλα που προκύπτουν από τέτοια distillation:

  • Στερούνται safety guardrails (μηχανισμών ασφαλείας) που έχουν οι αμερικανικές εταιρείες.
  • Μπορούν να χρησιμοποιηθούν για cyberεπιθέσεις, βιολογικά όπλα, παραπληροφόρηση και μαζική παρακολούθηση.
  • Ενισχύουν αυταρχικά καθεστώτα σε επιθετικές χρήσεις AI.

«Το παράθυρο δράσης είναι στενό», αναφέρει η Anthropic, καλώντας σε συντονισμένη απάντηση από βιομηχανία, cloud providers και πολιτικούς.

Σύνδεση με OpenAI και Προηγούμενες Κατηγορίες

Η υπόθεση έρχεται λίγες εβδομάδες μετά από παρόμοιες κατηγορίες της OpenAI κατά της DeepSeek. Σε υπόμνημα προς την Επιτροπή της Βουλής των Αντιπροσώπων για την Κίνα (Φεβρουάριος 2026), η OpenAI ανέφερε ότι η DeepSeek χρησιμοποιεί «obfuscated methods» για να «free-ride» σε αμερικανικά μοντέλα, παρακάμπτοντας περιορισμούς.

Η DeepSeek είχε προκαλέσει σοκ πέρυσι με μοντέλα υψηλής απόδοσης που απαιτούσαν λιγότερους πόρους, αμφισβητώντας την ανάγκη για μαζική υπολογιστική ισχύ και τους ελέγχους εξαγωγών.

Αντιδράσεις και Σιωπή από την Κίνα

Οι DeepSeek, MiniMax και Moonshot AI δεν έχουν ακόμα σχολιάσει δημόσια τις κατηγορίες της Anthropic (έως 26 Φεβρουαρίου 2026). Σε προηγούμενες περιπτώσεις, η DeepSeek δεν απάντησε στις κατηγορίες της OpenAI.

Η υπόθεση εντείνει την ένταση στον AI Ψυχρό Πόλεμο ΗΠΑ-Κίνας, με τις αμερικανικές εταιρείες να βλέπουν τις κινεζικές «τίγρεις» να κλείνουν γρήγορα το χάσμα – ενδεχομένως με «αθέμιτα» μέσα. Η Anthropic καλεί σε ενίσχυση των ελέγχων και καλύτερη προστασία μοντέλων.

Μείνετε συντονισμένοι για εξελίξεις σε αυτή την κρίσιμη μάχη τεχνολογικής υπεροχής!