סין מתכננת להחמיר את הכללים סביב השימוש בבינה מלאכותית דמוית אדם, על ידי דרישה מספקים להבטיח שהשירותים שלהם יהיו אתיים, מאובטחים ושקופים, כך דווח אמש (שבת) בבלומברג.
"יש להודיע למשתמשים שהם מתמודדים עם בינה מלאכותית כאשר הם מתחברים לשירות ובמרווחים של שעתיים, או כאשר ניתן לזהות סימנים של תלות יתר", כך נמסר מגוף הפיקוח על מרחב הסייבר של המדינה. ההצעות פתוחות להתייעצות ציבורית עד 25 בינואר.
כמו כן, נמסר כי מערכות AI שנועדו לפעול כמו בני אדם צריכות גם ליישם מערכות אבטחה וביקורת אתית חזקות, תוך כדי פעולה מתוך "ערכים סוציאליסטיים מרכזיים" והימנעות מפרסום תוכן שעלול לפגוע בביטחון הלאומי.

על פי טיוטות ההצעות, ספקים אף יהיו חייבים לבצע הערכת אבטחה ולהגיש דוח למנהל הסייבר המחוזי אם הם משיקים תכונות בינה מלאכותית דמויות אדם. דוח יידרש גם עבור שירותים שצוברים מיליון משתמשים רשומים או 100,000 משתמשים פעילים חודשיים.
סין מקדמת את הבינה המלאכותית כתעשייה אסטרטגית, ומשקיעה רבות בטכנולוגיות חדשות כדי להניע צמיחה כלכלית ותחרותיות עולמית. במקביל, הרשויות להוטות לשמור על משילות כדי לשמר את הביטחון והיציבות החברתית.
בנובמבר האחרון, בייג'ינג גיבשה רשמית כללים עליהם היא עובדת עם חברות בינה מלאכותית כדי להבטיח שהצ'אטבוטים שלהן מאומנים על נתונים המסוננים לתכנים רגישים מבחינה פוליטית, ושהם יכולים לעבור מבחן אידיאולוגי לפני שהם מפרסמים אותם לציבור. כל הטקסטים, הסרטונים והתמונות שנוצרו על ידי AI חייבים להיות מתויגים במפורש וניתנים למעקב, מה שמקל על המעקב והענישה של כל מי שמפיץ תוכן לא רצוי.
סין חוששת: AI מאיים על שלטון המפלגה
הרשויות מסרו לאחרונה כי הסירו 960,000 פריטים של מה שנחשבו בעיניהן כתוכן בלתי חוקי או מזיק שנוצר על ידי בינה מלאכותית, במהלך שלושה חודשי קמפיין אכיפה. הרשויות סיווגו רשמית את ה-AI כאיום פוטנציאלי עיקרי, והוסיפו אותה לצד רעידות אדמה ומגפות לתוכנית התגובה הלאומית לחירום.
מודלים סיניים מקבלים ציונים גבוהים בדירוגים בינלאומיים, הן באופן כללי והן בתחומים ספציפיים כמו קידוד מחשבים, אפילו כשהם מצנזרים תגובות בנוגע לטבח בכיכר טיאננמן, חששות בנוגע לזכויות אדם ונושאים רגישים אחרים. מודלים אמריקאיים מרכזיים של בינה מלאכותית אינם זמינים ברובם בסין.




