מחקר חדש: ChatGPT ו-Gemini מעוותים את המידע החדשותי

מחקר חדש מצא שעוזרי בינה מלאכותית מציגים תוכן חדשותי באופן שגוי בכמעט מחצית מתשובותיהם • כ-72% מהתשובות של Gemini הראו קושי באיתור מקורות מידע
צ'אטבוט | אילוסטרציה: שאטרסטוק

צ'אטבוט | אילוסטרציה: שאטרסטוק

עוזרי בינה מלאכותית מובילים מציגים תוכן חדשותי באופן שגוי בכמעט מחצית מתשובותיהם, כך עולה ממחקר חדש שפורסם היום (רביעי) על ידי איגוד השידור האירופי (EBU) וה-BBC. המחקר בחן 3,000 תשובות שסיפקו  לשאלות על חדשות.

המחקר בדק עוזרי בינה מלאכותית, כמו כולל ChatGPT, Copilot, Gemini ו-Perplexity, ב-14 שפות מבחינת דיוק, מקורות ויכולת להבחין בין דעה לעובדה. בסך הכל, 45% מתשובות הבינה המלאכותית שנחקרו הכילו לפחות בעיה משמעותית אחת, כאשר 81% מהתשובות כללו טעות כלשהי.

הבינה המלאכותית של גוגל, Gemini | צילום: mundissima, שאטרסטוק
הבינה המלאכותית של גוגל, Gemini | צילום: mundissima, שאטרסטוק

שליש מתשובותיהם של הצ'אטבוטים לא בוססו על מקורות מידע נכונים ואף לעתים המקור למידע היה חסר. כ-72% מהתשובות של Gemini, עוזרת הבינה המלאכותית של גוגל, הראו קושי באיתור מקורות, בהשוואה לפחות מ-25% בקרב שאר הצ'אטבוטים. המחקר מצא בעיות דיוק ב-20% מהתשובות של כל העוזרים, כולל מידע לא עדכני.

לדוגמה, Gemini ציינה שינויים שגויים בחוק בנוגע לסיגריות אלקטרוניות חד פעמיות, ואילו ChatGPT דיווחה על האפיפיור פרנציסקוס כאפיפיור הנוכחי מספר חודשים לאחר מותו.

המחקר בדק מידע של 22 ארגוני תקשורת בשירות הציבור מ-18 מדינות, כולל צרפת, גרמניה, ספרד, אוקראינה, בריטניה וארה"ב.

ChatGPT | צילום: hadigraphics, פריפיק
ChatGPT | צילום: hadigraphics, פריפיק

ה-EBU מסר כי אמון הציבור עלול להיפגע, מפני שעזרי בינה מלאכותית שמחליפים יותר ויותר מנועי חיפוש מסורתיים. על פי דו"ח החדשות הדיגיטליות לשנת 2025 של מכון רויטרס, כ-7% מכלל צרכני החדשות המקוונות ו-15% מאלה מתחת לגיל 25 משתמשים בבינה מלאכותית כדי לצרוך החדשות.

המחקר החדש קרא לחברות בינה מלאכותית לשאת באחריות ולשפר את האופן שבו המוצרים שלהן מפיקים מידע שקשור לחדשות.

שתפו כתבה זו:

כותרות הכלכלה

guest
0 תגובות
משוב מוטבע
הצג את כל התגובות

עקבו אחרינו ברשתות החברתיות

עוד כתבות מעניינות

טען עוד כתבות