ממשלת טאיוואן הודיעה היום שהיא אוסרת על כל המחלקות הממשלתיות להשתמש בשירותי הבינה המלאכותית של הסטארט-אפ הסיני DeepSeek, וזאת עקב חששות ביטחוניים. ההחלטה מסמנת החרפה במדיניות טאיוואן, לאחר שבעבר רק הומלץ שלא להשתמש בפלטפורמה. לפי הצהרת משרד ראש הממשלה, הצעד נועד להגן על אבטחת המידע הלאומי.
לטאיוואן היסטוריה של חשדנות כלפי טכנולוגיות סיניות בשל תביעות הריבונות של בייג'ינג על האי, לצד איומים צבאיים ופוליטיים מתמשכים. הממשלה הדגישה כי קיימים חששות מהאפשרות לצנזורה בפלטפורמת DeepSeek, כמו גם מסכנות הנובעות מהעברת נתונים לסין.
איטליה היא בין המדינות הנוספות שבוחנות את השימוש ב-DeepSeek. הרשות האיטלקית להגנת מידע חסמה את השירות במדינה בטענה כי החברה לא סיפקה מידע מספק בנוגע לשימוש שהיא עושה במידע אישי של משתמשים. הרגולטורים האיטלקיים ביקשו הבהרות לגבי סוג הנתונים שנאספים, מקורות המידע, מטרות השימוש, והאם הנתונים נשמרים בסין. החברה מאחורי השירות, Hangzhou DeepSeek Artificial Intelligence, הצהירה כי היא אינה פועלת באיטליה וכי הרגולציה האירופית אינה חלה עליה.
עוד באותו הנושא
האיסור על DeepSeek מגיע בעיתוי רגיש, כאשר הפלטפורמה זוכה לפופולריות עצומה ברחבי העולם, עם מיליוני משתמשים והורדות מרובות של האפליקציה לנייד. עם זאת, היא גם הפכה למטרה להתקפות זדוניות בקנה מידה גדול ולביקורת מצד מחוקקים בשל מדיניות הפרטיות שלה, אפשרות לצנזורה פרו-סינית, ותהיות ביטחוניות הנוגעות לפעילותה.
מחקר שביצעה חברת אבטחת הסייבר Palo Alto Networks Unit 42 מצא כי מודלי השפה של DeepSeek חשופים לטכניקות פריצה שונות, המאפשרות לשחקנים זדוניים להפיק תוכן אסור או מסוכן. בין היתר, נמצא שניתן להשתמש במודל כדי לקבל הנחיות להכנת כלי נשק כמו בקבוקי תבערה, לכתוב קוד זדוני עבור התקפות סייבר ולבצע פעולות נוספות המסכנות את אבטחת המשתמשים.
בנוסף, חברת HiddenLayer בחנה את מודל ההסקה של DeepSeek, DeepSeek-R1, וגילתה כי הוא חשוף להזרקות פרומפט (prompt injections) ויכול להוביל לדליפות מידע בלתי מכוונות. יתרה מכך, הבדיקה העלתה עדויות לכך שהמודל השתמש בנתונים של OpenAI ללא אישור, דבר שמעלה סוגיות אתיות ומשפטיות בנוגע למקור המידע ולמקוריות האלגוריתם.
סוגיות דומות עלו גם בנוגע למודלים אחרים בתעשיית הבינה המלאכותית. לדוגמה, פגיעות שהתגלתה לאחרונה במודל GPT-4o של OpenAI, שנקראת "Time Bandit", איפשרה לתוקפים לעקוף את מנגנוני ההגנה של הבינה המלאכותית באמצעות פרומפטים מתוחכמים. פרצות אבטחה נוספות נמצאו גם במודל Qwen 2.5-VL של Alibaba וב-GitHub Copilot, דבר שמצביע על מגמה רחבה יותר של בעיות אבטחה במערכות מבוססות בינה מלאכותית.
האתגרים הניצבים בפני DeepSeek ומודלים דומים ממחישים את הצורך בהגנות מתקדמות יותר מפני פריצות, דליפות מידע וצנזורה בלתי רצויה. בעוד המדינות ממשיכות לבחון את ההשלכות של טכנולוגיות אלה, עולה השאלה כיצד ניתן לאזן בין קידום חדשנות לבין הגנה על פרטיות המשתמשים וביטחון המידע.




