לפני שנה וחצי קיבלה הנהלת חברת ג'יסוויין הצעה יוצאת דופן: לצרף בינה מלאכותית לישיבות ההנהלה לאורך כל שנת 2024, ולתת לה מקום של כבוד סביב שולחן קבלת ההחלטות.
למען הסר ספק – ג'יסוויין איננה סטארט-אפ צעיר או חברה קטנה. מדובר בחברה אוסטרית פרטית, בת למעלה משבעים שנה, שמעסיקה כמעט מאתיים עובדים ומגלגלת הכנסות של 85 מיליון דולר בשנה. היא מתמחה בתכנון, ייצור ושיווק של נעליים אקולוגיות – עסק מסורתי ושמרני למדי. דווקא משום כך, המנהלים שלה בחרו לשלב את הבינה המלאכותית בתהליך קבלת ההחלטות: הם הבינו שהם מתואמים מדי, כמעט מסוגלים להשלים את משפטי זה של זה, ושהשגרה והניסיון המשותף שלהם יוצרים נקודות עיוורות. הם ביקשו נקודת מבט שונה – קול נוסף מסביב לשולחן.
וכך, החוקרים כריסטיאן סטדלר מאוניברסיטת וורוויק ומרטין ריבס ממכון הנדרסון של BCG צירפו את ChatGPT-4 לדיוני ההנהלה. הם הזינו לתוכו את סדר היום, ביקשו ממנו להציע שאלות ונקודות לדיון, שילבו את התשובות בפגישה עצמה, ואף ניהלו איתו שיחות המשך לאחר מכן. לאורך שנה שלמה ליוותה הבינה המלאכותית את ההנהלה, ובסיום התקופה הגיעו החוקרים והמנכ"לים למסקנה חד-משמעית: בינה מלאכותית יכולה להיות בעלת ערך רב לדיונים ניהוליים – אך רק כאשר מנוהלת באופן פעיל ואינטראקטיבי.
הם גילו שכאשר המערכת קיבלה שאלות כלליות בלבד, או רק התבקשה לנסח הצעות לסדר היום, היא הפיקה תובנות שטחיות וקלישאתיות. הערך האמיתי הופיע כאשר נוצר דיאלוג משמעותי עם בני-אדם, ובפרט כאשר שימשה ככלי בידי יועץ חיצוני – כזה שאינו מכיר את החברה לפרטי פרטים, אך בעל הבנה אסטרטגית רחבה.
המסקנות הוצגו במאמר שפורסם ב-Harvard Business Review, ובו ניסחו החוקרים שלוש אמיתות מרכזיות:
האמת הראשונה הייתה צפויה: הבינה המלאכותית סייעה לחסוך זמן ומשאבים. היא איפשרה גישה מהירה לנתונים, הציעה הערכות "מדויקות מספיק", ולעיתים אף החליפה סוכנויות חיצוניות – למשל, בהפקת טיוטות של הודעות לעיתונות. כל זאת, עוד לפני ש-OpenAI השיקה כלים מתקדמים יותר כמו Deep Research, שיכולים לבצע מחקרים מעמיקים תוך דקות.
האמת השנייה הייתה מפתיעה: דווקא ההפרעה שיצרה הבינה המלאכותית לזרימת השיחה הטבעית בישיבות התבררה כמועילה. היא אילצה את המנהלים לעצור, לחשוב ולשקול אפשרויות חדשות. השיחות היו אולי איטיות ומסורבלות יותר, אך ההאטה הזו שברה דפוסי חשיבה מקובעים, והכניסה רעננות אסטרטגית.
האמת השלישית, המדאיגה מכולן, כונתה "אשליית השלמות": לאורך זמן, המנהלים החלו להסתמך על המלצות הבינה המלאכותית כאילו הן מקיפות וממצות את כל היבטי ההחלטה. כשהיא פספסה נושא מהותי – למשל, שיקולים משפטיים – איש לא טרח להוסיף אותו לשולחן הדיון. המנהלים קיבלו את פלט הבינה המלאכותית כמובן מאליו, מבלי להפעיל חשיבה ביקורתית עצמאית. לא מדובר בסתם "הזיות" – אלא בתהליך הדרגתי שבו בני-אדם מוותרים על אחריות מחשבתית ומתחילים להאמין שהמכונה יודעת יותר טוב מהם.
מכאן נובעת סכנה עמוקה יותר: ככל שהבינה המלאכותית תשתפר ותגיע לרמות על-אנושיות, כפי שחוזים רבים מעריכים שיקרה בעשור הקרוב, היא עלולה באמת לדעת יותר מאיתנו. ואז, כשנסכים עמה – לא תהיה זו אשליה אלא אמת. ובכל זאת, גם אז, לבינת-העל תהיה נקודת מבט מסוימת, הטיות פנימיות והעדפות שתוכנתו לתוכה. אם נתרגל לקבל את דבריה בלי עוררין, יהיה קשה להתנגד לה כאשר תוביל אותנו בכיוון שאיננו ראוי.
לכן, השימוש הנכון בבינה המלאכותית חייב לכלול זהירות, ביקורתיות, ותחזוק מתמיד של חשיבה עצמאית. לא מספיק להיזהר רק מהטעויות הגלויות – יש להיזהר גם מהעצלות המחשבתית שהיא עלולה לטפח. כדאי לשלב כמה מערכות בינה מלאכותית, להשוות תובנות, ולהיזהר ממנועים שמציגים תמונה חלקית. אחרת, אנחנו עשויים לקבל החלטות חמורות מבלי להבין מה החסרנו.
כשהתחלתי לקרוא את המאמר, קיוויתי למצוא סיפור על הנהלה שהוחלפה לגמרי בבינה מלאכותית אוטונומית. התאכזבתי לגלות שהשילוב היה מוגבל לעצה ודיון – אך מהר מאוד הבנתי שהניסוי הזה חושף שאלות עמוקות הרבה יותר. שלוש האמיתויות שנחשפו בו מאלצות אותנו לבחון מחדש איך נכון להשתמש בכלים חכמים, לא רק בישיבות הנהלה, אלא בכל מקום שבו מתקבלות החלטות משמעותיות.
בעולם שבו ממשלות, חברות ויחידים מסתמכים יותר ויותר על מערכות אוטומטיות, אסור לנו לאבד את היכולת לחשוב. הבינה המלאכותית היא כלי רב-עוצמה – בדיוק כמו אקסל, שיכול להטעות אותנו אם איננו בודקים את הנחות היסוד. אנחנו חייבים ללמוד לעבוד איתה בחוכמה, לזהות את מגבלותיה ולהישאר אלה שמובילים את ההחלטות – גם אם היא חכמה מאיתנו.
בהצלחה לכולנו.
המאמר פורסם במקור במדריך לעתיד – הבלוג של ד"ר רועי צזנה, חוקר ועתידן באוניברסיטת תל-אביב




