אנתרופיק חושפת מודל בינה למידע מסווג: "כבר בשימוש בדרגים הבכירים ביותר"

המודל מותאם במיוחד לתכנון, מודיעין וסייבר ונגיש אך ורק לסביבות סגורות בעלות סיווג ביטחוני גבוה • המבקרים מזהירים מפני סיכונים ביטחוניים ומוסריים
קלוד של אנטרופיק והמתחרה הגדולה ChatGPT | צילום: שאטרסטוק, קושירו ק.

קלוד של אנטרופיק והמתחרה הגדולה ChatGPT | צילום: שאטרסטוק, קושירו ק.

חברת הבינה המלאכותית Anthropic הכריזה ביום רביעי האחרון על השקת סדרה חדשה של מודלים בשם Claude Gov, שנועדו לשרת באופן ייעודי את צרכיהן של סוכנויות הביטחון הלאומי של ארצות הברית. מדובר בדגמים שתוכננו בהתאמה לשימושים מסווגים, בדגש על תכנון אסטרטגי, תמיכה בפעילות מבצעית וניתוח מודיעין.

הדגמים, שלדברי החברה כבר נמצאים בשימוש של גופים בכירים "ברמות הגבוהות ביותר של הביטחון הלאומי", פותחו לאחר תהליך ממושך של איסוף משוב מסוכנויות ממשלתיות שונות, במטרה ליצור כלים המסוגלים להתמודד עם דרישות מבצעיות בעולם המסווג, לרבות טיפול במידע רגיש, עיבוד שפה מתקדמת והבנה של הקשרים ביטחוניים מורכבים.

מודלי Claude Gov, כך לפי Anthropic, עברו תהליך ייחודי של פיתוח והתאמה לסביבות עבודה מסווגות, תוך חיזוק היכולת לעבוד עם מידע רגיש בצורה בטוחה. הם מצטיינים ב"רמות סירוב מופחתות" — מונח המתאר את הנטייה הנמוכה יותר של המודל להימנע ממתן תשובות בנוגע למידע מסווג — וכן ביכולות מתקדמות להבנת טקסטים מודיעיניים, ניתוח נתוני סייבר מורכבים, ויכולת שפה רחבה יותר במגוון ניבים ושפות קריטיות כמו רוסית, סינית, פרסית ועוד.

בנוסף, הדגמים החדשים נבדלים ממודלי הבינה הרגילים של Anthropic בכך שהם לא זמינים לקהל הרחב או לשימוש עסקי מסחרי, אלא ניתנים לגישה רק על ידי סוכנויות ממשלתיות במסגרת סביבות סגורות המוגדרות כחסויות ובעלות תקן אבטחה פדרלי גבוה.

השקת Claude Gov מהווה שלב נוסף בחיזוק שיתוף הפעולה בין Anthropic לבין הממשל האמריקאי. כבר בנובמבר האחרון, הודיעה החברה על שיתוף פעולה עם Palantir Technologies, חברת תוכנה המתמחה בניתוח מידע ביטחוני, ועם Amazon Web Services (AWS) – חטיבת הענן של אמזון, שהיא גם אחת מהמשקיעות המרכזיות ב-Anthropic.

במסגרת שיתוף הפעולה, שלוש החברות מקדמות מכירת פתרונות AI מותאמים לגופים ממשלתיים, עם שילוב בין היכולות המודולריות של המודלים, תשתיות הענן של AWS, וממשקי הנתונים של פאלנטיר – מה שמספק מעטפת שלמה לכל אורך שרשרת קבלת ההחלטות הביטחונית.

Anthropic נוסדה בשנת 2021 על ידי קבוצת יוצאי OpenAI, ובראשם האח והאחות דניאל ודאריה אמודהי. החברה מגדירה את עצמה כ"סטארטאפ הממוקד בבטיחות ובפיתוח AI אחראי", ומציבה את שאלת האתיקה והאחריות של מערכות AI בלב חזונה.

במהלך 2023 קיבלה החברה השקעות משמעותיות, בהיקף של יותר מ־4 מיליארד דולר, מ־Amazon, Google וקרנות הון סיכון שונות. על רקע ההשקעות – ובעיקר הקשר ההדוק עם AWS – חיזקה Anthropic את מעמדה כאחת משלוש חברות ה־AI המובילות בארצות הברית לצד OpenAI ו־Google DeepMind.

מודל השפה שלה, Claude (על שם המתמטיקאי קלוד שנון), מהווה אלטרנטיבה למערכות GPT של OpenAI, בייחוד בקרב מתכנתים, אנליסטים וארגונים גדולים.

השקת Claude Gov מתרחשת על רקע תחרות גוברת בשוק הבינה המלאכותית הביטחונית, כאשר מספר שחקנים מרכזיים מבקשים לתפוס נתח בפרויקטים מסווגים ובחוזים פדרליים עתירי תקציב.

OpenAI, חברת האם של ChatGPT, מבקשת להעמיק את קשריה עם משרד ההגנה האמריקאי (DoD), בין היתר באמצעות שיתופי פעולה עם Microsoft, שמספקת פתרונות ענן בטוחים לסוכנויות ממשלתיות. לפי דיווחים שונים, החברה בוחנת דרכים להתאים את הדגמים שלה לעבודה בסביבות חסויות – אך טרם השיקה מוצר מוגדר ייעודי לכך.

Meta, מצידה, הפכה את מודלי LLaMA לזמינים לשותפים ביטחוניים – בין היתר במחקרי צבא, פיתוח מודיעין סייבר ותמיכה לוגיסטית. Google משיקה גרסה של Gemini עם התאמות לעבודה במידע מסווג, במקביל לפיתוח מודולים נפרדים עבור מערכות בקרה ותגובה מבצעיות.

חברת Cohere, שממוקדת בדרך כלל בשוק העסקי, הרחיבה גם היא את פעילותה הביטחונית, וכיום משתפת פעולה עם פאלנטיר בהטמעת AI בתשתיות ממשלתיות.

לצד ההתלהבות מהיכולות, נשמעת גם ביקורת נרחבת מצד אקדמאים, מומחי פרטיות ופעילים אזרחיים. החשש העיקרי: שימוש במודלים סטטיסטיים שמקבלים החלטות או תומכים בהחלטות ביטחוניות – במיוחד בנוגע למודיעין, מבצעי סיכול, או ניטור אוכלוסייה – עלול להוביל להחלטות שגויות, לא מדויקות או לא מבוקרות.

חלק מהמבקרים מזהירים מפני "צבא של בינה מלאכותית" שמבצע פעולות ללא שקיפות, ללא אחריות משפטית וללא הסבר על אופן הפעולה הפנימי של המערכת. ביקורת נוספת נוגעת לבעיות הטמונות במודלים עצמם: הטיות מובנות, רגישות לטעויות טקסטואליות, ויכולת מוגבלת להסיק מסקנות מוסריות באופן עצמאי.

Anthropic מצידה מדגישה כי כל מודל Claude, כולל Claude Gov, עבר תהליך בטיחות קפדני שפותח על ידה, אך אינה מפרטת מיהם הגורמים החיצוניים, אם בכלל, שבחנו את המערכת באופן בלתי תלוי.

שתפו כתבה זו:

כותרות הכלכלה

guest
0 תגובות
משוב מוטבע
הצג את כל התגובות

עקבו אחרינו ברשתות החברתיות

עוד כתבות מעניינות

טען עוד כתבות