סם אלטמן, מנכ"ל OpenAI, התייצב לראיון עומק אצל המגיש טאקר קרלסון – ושם חשף את עוצמת הלחץ המלווה אותו מאז הפכה ChatGPT לתופעה עולמית. "לא ישנתי לילה טוב אחד מאז שהשקנו את ChatGPT", הודה אלטמן כשהוא מתאר את כובד האחריות.
לדברי אלטמן, החשש אינו מתרחישים הוליוודיים של רובוטים משתלטים, אלא דווקא מההחלטות הקטנות והיומיומיות. מתי המודל עונה, מתי הוא מסרב, כיצד הוא מנסח תשובה – וכל זאת כשהוא יודע שכל שינוי זעיר משוכפל מיליארדי פעמים ברחבי העולם ומשפיע על מחשבותיהם והתנהגותם של בני אדם.
הריאיון המלא לצפייה:
עוד באותו הנושא
אחת הסוגיות שמטרידות אותו במיוחד היא נושא ההתאבדויות. "כ-15 אלף איש מתאבדים מדי שבוע בעולם", ציין אלטמן. "אם 10% מהם השתמשו ב-ChatGPT – ייתכן ש-1,500 אנשים בעלי מחשבות אובדניות פנו למערכת, ובסוף לא הצלחנו להציל את חייהם. אולי יכולנו לומר משהו טוב יותר, אולי היינו צריכים להיות פרואקטיביים יותר."
דבריו מגיעים לאחר תביעה שהגישו הורים בארה"ב, שטענו כי בנם בן ה-16 התאבד בעקבות שיחה עם ChatGPT. אלטמן כינה את המקרה "טרגדיה" והסביר כי החברה בוחנת אפשרות לדווח לרשויות במקרים חמורים של שיחות על אובדנות עם קטינים – אף שהדבר עלול לעמוד במתח עם שמירה על פרטיות המשתמשים.
אלטמן התייחס גם לשאלות מוסריות במדינות שבהן קיימת לגליזציה של סיוע רפואי להתאבדות, כמו קנדה וגרמניה. לדבריו, במצבים של חולים סופניים ChatGPT עשוי להציג התאבדות כאפשרות, אך הדגיש: "המערכת לא צריכה להיות בעד או נגד שום דבר."
ביחס לסיכונים אחרים, אלטמן הבהיר קווים אדומים: "זה לא אינטרס חברתי ש-ChatGPT יעזור לאנשים לבנות נשק ביולוגי", אמר. אולם את הקושי האמיתי הוא מזהה באזורי האפור – כשסקרנות אנושית מטשטשת את הגבולות בין ידע מסקרן לסכנה ממשית.
כשקרלסון שאל אותו על הבסיס הערכי להחלטות אלו, אלטמן השיב כי המודל משקף "את הקולקטיב של האנושות – על כל מה שטוב ורע שבה".




