החברות היריבות OpenAI, אנתרופיק וגוגל החלו לעבוד יחד, תוך מאמץ לבלום מתחרים סינים השואבים תוצאות ממודלי בינה מלאכותית אמריקאים חדישים, כדי להשיג יתרון במרוץ ה-AI העולמי.
החברות משתפות מידע באמצעות ארגון ללא מטרות רווח שהקימו שלוש ענקיות הטכנולוגיה יחד עם מיקרוסופט ב-2023, המכונה "Frontier Model Forum".

המטרה היא לזהות ניסיונות של "זיקוק עוין" (Adversarial Distillation) המפר את תנאי השימוש שלהן, כך עולה מדיווח בבלומברג.
עוד באותו הנושא
שיתוף הפעולה הנדיר מדגיש את חומרת החשש שהעלו חברות ה-AI בארה"ב. על פי החשש, משתמשים, במיוחד בסין, יוצרים גרסאות חיקוי של מוצריהן.
גרסאות החיקוי עלולות להוריד מחירים, למשוך לקוחות ולהוות סיכון לביטחון הלאומי. בארה"ב מעריכים כי זיקוק לא מורשה עולה למעבדות בעמק הסיליקון מיליארדי דולרים ברווחים שנתיים.
מהו "זיקוק"?
זיקוק הוא טכניקה שבה מודל AI ותיק ומשוכלל, המכונה "מורה", משמש לאימון מודל חדש – "התלמיד" – המשחזר את יכולות המערכת המקורית. לרוב לימוד "התלמיד" הינו בעלות נמוכה בהרבה מאשר ייצור מודל מאפס.
ישנם מקרים בהם חלק מצורות הזיקוק מקובלות, כמו כאשר החברה יוצרת גרסה קטנה ויעילה של המודל של עצמה. עם זאת, השימוש בהן על ידי צדדים שלישיים במדינות יריבות כמו סין או רוסיה, הפך לשנוי במחלוקת.
החשש המרכזי הוא שמדינות עוינות יפתחו מודלים המבוססים על הידע האמריקאי, אך ללא "פסי הגנה".
העימות מול DeepSeek
הנושא עלה לשיח עם השקת המודל R1 של הסטארט-אפ הסיני DeepSeek, שהדהים את עולם ה-AI, בינואר אשתקד.
מיקרוסופט ו-OpenAI חקרו אם החברה הסינית שאבה כמות מאסיבית של נתונים מהמודלים שלהן כדי ליצור את R1.
בפברואר האחרון, OpenAI הזהירה את המחוקקים בארה"ב כי DeepSeek ממשיכה להשתמש בטקטיקות מתוחכמות יותר כדי לחלץ תוצאות ממודלים אמריקאים.
שיתוף פעולה וביטחון לאומי
שיתוף המידע בין החברות מזכיר את הפרקטיקה המקובלת בתעשיית אבטחת הסייבר. לפיה, חברות מחליפות מידע על תקיפות כדי לחזק את הגנותיהן.
ממשל טראמפ כבר אותת על פתיחות לעידוד שיתוף פעולה כזה. "תוכנית הפעולה ל-AI" שחשף הנשיא דונלד טראמפ בשנה שעברה, קראה להקמת מרכז ניתוח ושיתוף מידע, בין היתר למטרה זו.
עם זאת, נכון לעכשיו שיתוף המידע עדיין מוגבל בשל חששות של החברות מחוקי ההגבלים העסקיים (Antitrust), והן מצפות להבהרות נוספות מהממשל בנושא.




