"כיוון שגוי": מטא מסרבת לחתום על קוד האתיקה של האיחוד האירופי

הקוד שפירסמה הנציבות הוא מסגרת וולונטרית להיערכות לחוק ה-AI שייכנס לתוקף באוגוסט • הקוד מחלק שימושים לפי רמת סיכון ומחייב תיעוד שוטף, הימנעות מתוכן לא חוקי וכיבוד זכויות יוצרים • בחברה חוששים שאכיפת הקוד תפגע ביכולת לפתח בינה מתקדמת
לאמה, מודל בינה מלאכותית של מטא, אילוסטרציה | קרדיט: Poetra.RH, שאטרסוק

לאמה, מודל בינה מלאכותית של מטא, אילוסטרציה | קרדיט: Poetra.RH, שאטרסוק

מטא הודיעה ביום שישי כי לא תחתום על קוד ההתנהלות שפרסם האיחוד האירופי עבור ספקי מודלים של בינה מלאכותית כללית (GPAI), שבועות לפני שהתקנות החדשות ייכנסו לתוקפן.

הקוד, שפורסם בתחילת החודש, נועד להוות מסגרת וולונטרית שתסייע לחברות להיערך לעמידה בדרישות חוק ה-AI של האיחוד. הדרישות כוללות, בין השאר, תיעוד מפורט ומעודכן של מודלים, איסור על שימוש בתוכן פיראטי, וחובה להפסיק לכלול יצירות במאגרי אימון לבקשת בעלי זכויות יוצרים. מדובר ברגולציה שמתמקדת במודלים שמוגדרים כבעלי "סיכון מערכתי", בהם GPT של OpenAI ו-Llama של מטא עצמה.

ג'ואל קפלן, סמנכ"ל קשרי החוץ של מטא, כתב כי החברה סבורה שהקוד "יוצר אי-ודאות משפטית למפתחי מודלים" ומכיל "צעדים שמעבר להיקף החוק עצמו". לדבריו, "אירופה הולכת בכיוון שגוי" וכי הדרישות עלולות לעכב את פיתוח והטמעת המודלים באירופה, וכן לפגוע ביכולת של חברות אירופיות לבנות מוצרים מסחריים על בסיס טכנולוגיה זו.

למרות שמדובר במסגרת שאינה מחייבת משפטית, כמה מהשחקנים המרכזיים בתחום, כולל מיסטראל, גוגל, אנתרופיק ו-OpenAI, הביעו הסתייגויות דומות מהרגולציה. החברות טוענות כי האיחוד האירופי מקדם מסגרת רגולטורית שאינה תואמת את קצב הפיתוח של הטכנולוגיה, וכי הדרישות ליצירת תיעוד נרחב, שקיפות טכנית, ודיווח שוטף על מאפייני המודלים, הן מכבידות, בלתי מעשיות לעיתים, ואף עלולות לחשוף מידע רגיש.

בנוסף, נמתחה ביקורת על כך שהקוד מצריך מהחברות לעמוד בדרישות שנוסחו באופן כללי מדי, מה שמוביל לקושי לפרש את משמעותן המשפטית בפועל. בכמה מקרים, גורמים בתעשייה אף הזהירו כי רמת החומרה של הקוד עולה על זו של החוק עצמו – מה שמעלה חשש ל"רגולציה באמצעות קוד אתי" שנעשה בו שימוש לצורך עקיפת הליך חקיקה פורמלי.

נציבות האיחוד, מצידה, הבהירה שלא תדחה את מועד התחולה, שנקבע ל-2 באוגוסט 2025.

לפי החוק, חברות שפועלות עם מודלים כלליים שנחשבים בעלי השפעה רחבה נדרשות לעמוד בתקנות החל ממועד זה. עם זאת, החוק קובע תקופת הסתגלות – עד 2 באוגוסט 2027 – למודלים שהושקו לפני כניסת התקנות לתוקף. בכך מנסה האיחוד להחיל רגולציה מדורגת על תחום שעד כה כמעט לא הוסדר.

חוק ה-AI של האיחוד כולל מנגנון לפי רמת סיכון: שימושים בעלי "סיכון בלתי קביל" (כמו מניפולציה התנהגותית או דירוג חברתי) נאסרים לחלוטין; שימושים "עתירי סיכון" בתחומים כמו ביומטריה, חינוך ותעסוקה – מחייבים עמידה בקריטריונים מחמירים של בקרת איכות, שקיפות ורישום.

קוד האתיקה החדש שואף לייצר בהירות פרשנית לפני יישום החוק בפועל, אך הסירוב של מטא לחתום עליו ממחיש את הפערים בין הרגולציה המתגבשת באירופה לבין מדיניות החברות הבינלאומיות שפועלות בתחומי AI כלליים.

שתפו כתבה זו:

כותרות הכלכלה

guest
0 תגובות
משוב מוטבע
הצג את כל התגובות

עקבו אחרינו ברשתות החברתיות

עוד כתבות מעניינות

טען עוד כתבות