פריצתה של הבינה המלאכותית היוצרת לחיינו, הובילה לאבולוציה מהירה ואגרסיבית באחד התחומים הקריטיים ביותר בעידן הדיגיטלי – תחום הסייבר. ניתן לחלק את ההשפעה לשני היבטים: ההיבט הראשון והברור יותר הוא השימוש הגובר בבינה מלאכותית במתקפות סייבר, הן להגנה והן להתקפה. ההיקף, התחכום והקצב של מתקפות סייבר שמבוצעות כיום על ידי אייג'נטים של בינה מלאכותית גבוהים כל כך, שהם עולים על כל יכולת אנושית שהכרנו עד היום. אייג'נטים למעשה נלחמים זה בזה באינטרנט, ובני האדם שמפעילים אותם ברקע הפכו לשחקני משנה.
ההיבט השני והמורכב יותר, נוגע לניסיונות להרעיל את מקורות המידע של מודלי השפה במידע שתול, על מנת לבצע מניפולציה בפלט שהם יספקו ובפעולות שהם יבצעו. בתחום ההתקפה ניתן להבחין בכמה טכניקות בהן נעשה שימוש בבינה מלאכותית.
1. הנדסה חברתית (social engineering)
הטעייה של בני אנוש הייתה ועודנה אחד מחולשות הסייבר המשמעותיות ביותר בכל מערכת, כשלעיתים קרובות שימוש בעובדים מתוך הארגון מסייעת לתוקף לעקוף את כל חומות ההגנה הטכנולוגיות.
מודלי שפה מאפשרים לתוקפים ליצור הודעות פישינג מותאמות אישית ברמה גבוהה ובשפה תקנית, מה שעלול להטעות אותנו הרבה יותר מהודעות הסמס המגוחכות ומלאות השגיאות שכולנו מקבלים מ"דואר ישראל" כביכול.
מעבר להונאות טקסט, השימוש בכלים ליצירת דיפ פייק של וידאו ואודיו מאפשרים לתוקפים להתחזות לגורם לגיטימי בשיחות וידאו שנראות אמיתיות לחלוטין, וכך לגרום לאדם בצד השני לבצע פעולות כגון העברת כספים לחשבון של התוקף.
אחד המקרים המפורסמים בהקשר הזה הוא הונאת הדיפ פייק בחברת Arup הבריטית במאי 2024, שם עובד של החברה מהונג קונג העביר יותר מ25 מיליון דולר לחשבון של התוקפים, לאחר שאלו ביצעו איתו שיחת ועידה בשידור חי ובה הופיעו כביכול שורת בכירים מהחברה באמצעות דיפ פייק.

2. נוזקות אוטונומיות ודינמיות
בינה מלאכותית מאפשרת גם יצירת נוזקות מתוחכמות כל כך, שהן משכתבות את עצמן תוך כדי תקיפה על מנת למקסם תוצאות ולהתחמק מזיהוי.
במחקר שפורסם על ידי מחלקת חוקרי האיומים של גוגל לפני מספר ימים, דווח על נוזקות חדשות שעושות שימוש בבינה מלאכותית על מנת לתקוף באופן דינמי.
נוזקה בשם PROMPTFLUX משתמשת בגוגל ג'מיני על מנת לשכתב את קוד המקור שלה מדי שעה. נוזקה אחרת בשם PROMPTSTEAL שמקושרת לממשלת רוסיה, משתמשת בבינה מלאכותית כדי ליצור סקריפטים לתקיפת המערכת בה היא מותקנת לפי הצורך שהיא מזהה בזמן אמת.
נוזקות אלו הן סממנים ראשונים של המעבר לעידן חדש במבנה הנוזקות, כשמוח התקיפה אינו חלק מהקוד שנמצא במחשב המותקף ולכן קשה יותר לזיהוי, ובעל יכולות כבירות של מודל השפה שמפעיל אותו מאחורי הקלעים.

3. הורדת רף הכניסה לעולם פשיעת הסייבר
בינה מלאכותית הורידה את רף הכניסה לעולם פשעי הסייבר באופן משמעותי. בדוח שפורסם על ידי חברת CrowdStrike סופר על קבוצת תקיפה צפון קוריאנית בשם FAMOUS CHOLLIMA שעשתה שימוש נרחב בבינה מלאכותית על מנת לשתול עובדים מתחזים בחברות מסביב לעולם, ולגנוב באמצעותם מידע רגיש מתוך החברות.
הקבוצה יצרה קורות חיים מזוייפים באמצעות בינה מלאכותית לעובדים שהתראיינו לחברות מערביות. בראיונות העבודה נעשה שימוש בדיפ פייק על מנת להתחזות לדמות העובד שהופיעה בקורות החיים. לאחר שהתקבלו לעבודה, עשו התוקפים שימוש בבינה מלאכותית גם כדי לבצע את משימות התפקיד אליו התקבלו, וגם כדי לגנוב מידע רגיש מהחברה.

בינה מלאכותית לשיפור יכולות ההגנה
בצד ההגנה נעשה שימוש בבינה מלאכותית על מנת לאפיין דפוסי התנהגות של משתמשים לגיטימיים, ולזהות כל אנומליה באופן ההתנהגות של המשתמש שעשויה להעיד על מתקפה המתבצעת כנגד המערכת. מערכות SOAR מאפשרות גם אוטומציה של תהליכי תגובה במקרה שזוהתה מתקפה, וכך חוסכות זמן יקר של תגובה אנושית שלא תמיד מתבצעת במהירות הנדרשת. מערכות אלו בשימוש עוד לפני עידן הבינה המלאכותית, אך היא מעניקה להן חיזוק ויכולות חדשות.
בינה מלאכותית מסייעת גם בניתוח הררי המידע והלוגים הזורמים מהמערכות השונות אל שולחנם של מומחי אבטחת המידע בארגון, וכך עוזרת להם להתמקד במידע הקריטי ולהפיק ממנו תובנות בקלות רבה יותר.
וקטור תקיפה חדש – המודלים עצמם
האיום על מודלי השפה עצמם הוא וקטור תקיפה חדש לחלוטין שדורש פיתוח אמצעי התגוננות חדשים. התקיפה עשויה להיות פרומפט שנשלח למודל בניסיון לגרום לו להסגיר מידע רגיש, למשל לגרום לו לספר כיצד ליצור נשק ביולוגי או לפתח נוזקה.
היא עשויה להתבצע כנגד מאגר המידע עליו המודל מתאמן, וכך לגרום לו "ללמוד" מידע שגוי או מסוכן. לשם המחשה – הנטיות הניאו נאציות שנתגלו בגרוק (מודל השפה של xAI) לא נוצרו בכוונת מכוון של החברה, אלא נבעו מהרעלת המודל על ידי דעות של גולשים ניאו נאציים באינטרנט, בשילוב עם חוסר הגנה מספק מפני יצירת תשובות כאלה. הזרקה של מידע במכוון לבסיסי המידע של המודלים עשויה לגרום למניפולציה באופן התגובה שלהם.

סכנות אחרות הן שימוש בלתי מבוקר בבינה מלאכותית ככלי עזר בארגון, כשהוא מבצע שינויים מהותיים בקוד ובמידע הארגוני שעשויים לגרום לטעויות ונזקים שקשה מאוד לתקן.
עובדים גם עלולים להסגיר מידע רגיש במיוחד הכולל קוד מקור וסיסמאות בשיחה עם הצ'אט, גם אם בתום לב בניסיון לקבל תמיכה טכנית ולפתור בעיות.
סוג מתקפה נוסף שמיוחס לסינים בעיקר, הוא שליחה אוטומטית של פרומפטים למודלים קיימים וניתוח של התשובות המתקבלות, וכך ליצור העתק של המודל במהירות רבה ובעלות נמוכה במיוחד. את המודל המשוכפל ניתן לבחון ולנתח אחר כך על מנת לאתר פגיעויות שניתן לנצל במודל המקור.

מבט אל העתיד – יעילות המגזר הפרטי וקריאת השכמה למגזר הציבורי
מגזר הסייבר העסקי הוא מגזר שמתנהל בתודעת חירום, וקצב התגובה שלו לשינויים גבוה במיוחד. מעבר למאמצי ההגנה בנושא מצד ענקיות הסייבר הקיימות, אנו עדים לאחרונה גם להקמה של חברות סייבר חדשות בתחום הבינה המלאכותית, וישראל כמעצמת סייבר לא נותרת מאחור.
השינויים המהירים הללו מאפשרים לשחקני מפתח במגזר העסקי להרוויח היטב מהצמיחה של התחום, אבל ממשלות הכפופות לרגולוציה ונעות באיטיות עלולות להיוותר חשופות לסיכון. מדינות שלא ישקיעו תקציב משמעותי ביכולות הגנה והתקפה מבוססות בינה מלאכותית, ימצאו את עצמן מהר מאוד חדירות לחלוטין, כשהמידע שלהן משמש נגדן.
מלחמת חרבות ברזל הוכיחה לנו היטב את מקומו של הסייבר בשדה הקרב, כשהמידע המודעיני המפורט של צה"ל איפשר מתקפות וחיסולים בדיוק, היקף ומרחק שהכו את העולם כולו בתדהמה. ההשקעה הממשלתית בסייבר בעידן הבינה המלאכותית אינו מותרות, הוא הכרח לכל מדינה חפצת חיים ויפה שעה אחת קודם.
הכותב הוא שלמה שטראוס – מנהל טכנולוגיות, ערוץ 10




