אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
האיחוד האירופי נגד ChatGPT: הנציבות תציע מסגרת רגולטורית לשימוש ב-AI ChatGPT | צילום: שאטרסטוק

האיחוד האירופי נגד ChatGPT: הנציבות תציע מסגרת רגולטורית לשימוש ב-AI

באירופה חוששים משימוש לרעה בטכנולוגיה, בעיקר כדי להשפיע על דעת הקהל, לסייע בזיוף תכנים, בהפצת פייק ניוז או פשוט הונאה. נשיא מיקרוסופט, שהודיעה שתשקיע 10 מיליארד דולר בחברת OpenAI: "רגולציה בתחום הבינה המלאכותית צריכה להתמקד באפליקציות בסיכון גבוה בלבד"

04.02.2023, 17:14 | רפאל קאהאן

הנציבות האירופית צפויה להציג השנה רגולציה המיועדת לפקח על השימוש במערכות בינה מלאכותית (AI) כלליות כגון ChatGPT. את הדיונים בנושא מוביל טיירי ברטון, נציב השוק הפנימי באיחוד האירופי - מקביל לשר הכלכלה של היבשת. לדבריו, החקיקה המיועדת תשמש למענה עבור כל אלה החוששים מסכנות מערכות הבינה המלאכותית. כללי האיחוד האירופי נחשבים תמיד לנוקשים ביותר, בעיקר בתחומי הטכנולוגיה והדיגיטל. כך למשל האיחוד קבע את התקן לרגולציית הפרטיות על בסיס חוקי ה-GDPR. מכיוון שהרגולציה מחייבת עבור כל שירות שמספק את מרכולתו לאזרח אירופי - גם אם פיזית הוא לא גר ביבשת - התוצאה היא שכללי הרגולציה האלה שוכפלו לכל העולם.

השאיפה של אירופה לספק את התשתית החוקית הראשונה לטכנולוגיות בינה מלאכותית אינה מפתיעה. רוב החברות שמפתחות AI הן אמריקאיות או סיניות, ובאירופה חוששים משימוש לרעה בטכנולוגיה הזו, בעיקר כדי להשפיע על דעת הקהל למשל. מומחים שונים הביעו חשש שמערכות אלה עשויות לשמש לרעה בקלות יחסית - כמו לסייע בזיוף תכנים, בהפצת פייק ניוז או פשוט הונאה. ברטון ציין את ChatGPT כדוגמה למערכת כזו ואמר שהכניסה שלה לשימוש ציבורי ממחישה את הדחיפות לחקיקה רגולטורית. כמובן שהחקיקה שציין היא אותה אחת שהגיש בשנה שעברה כבסיס לדיונים בנושא.

אבל ברטון אינו טירון בתחום. הוא שימש במשך שנים רבות כמנכ''ל של חברות טכנולוגיה גדולות, ובהן Orange צרפת, ענקית שירותי המחשוב Atos ותומסון-RCA, כך שהוא מבין היטב את היכולות של מערכות AI. הוא גם מכיר היטב את שוק הטכנולוגיה ואת הלך הרוח של חברות הביג-טק האמריקאיות, שלא מהססות לייצר קודם את המערכות, ורק אחר כך לחשוב כיצד מפקחים עליהן כדי למנוע שימוש לרעה. בשלב הנוכחי הכללים שהציע ברטון עדיין נמצאים בדיונים ולא ברור כמה מהם יגיעו לחקיקה סופית.

"כפי שאנו רואים עם ChatGPT, פתרונות AI יכולים להציע הזדמנויות אדירות לעסקים וגם עבור האזרחים, אבל הן גם מהוות איום. זו הסיבה שאנו חייבים מסגרת רגולטורית כדי להבטיח בינה מלאכותית אמינה המבוססת על נתונים איכותיים", אמר ברטון לסוכנות רויטרס בפרסום אמש (שישי). ברטון מתייחס בדבריו אלה לאופן שבו מערכות AI "מאומנות" או לומדות את הכישורים שלהן. לרוב המפתחים יתבססו על מאגרי מידע עצומים הזמינים ברשת או על שימוש במערכות על ידי גולשים ברשת. כלומר בכל פעם שמישהו משתמש למשל ב-ChatGPT כדי לייצר לו טקסט או ב-Dall-E כדי לצייר לו חתול, הוא למעשה מסייע באימון ולימוד המערכת לספק תשובות אמינות יותר לבקשות המשתמשים. סוג של מיקור המונים.

איכות הנתונים שעליהם מתבססים המפתחים היא קריטית. מחקרים רבים הראו שאם בינה מלאכותית משתמשת בנתונים מוטים - וכמעט כולם הם כאלה - היא תספק תשובות או תגובות בהתאם. כך למשל מערכות AI ששימשו בארה"ב לזיהוי חשודים בפשעים אלימים הראו הטיה מובנית לציין שחורים או לטינים כחשודים מיידיים. מיותר לציין שהשימוש במערכות האלה צומצם מאוד בארה"ב בשנים האחרונות, אם כי הוא לא נעלם לחלוטין. מערכת AI יכולה לשמש למשל לסינון מועמדים למשרה או קביעת דירוג אשראי. נתונים מוטים עשויים לגרום להטיה גם של המועמדים או של דירוג האשראי, ומכאן הסכנה.

עם זאת, חברות רבות המפתחות AI חוששות מאוד שרגולציה יכולה להזיק לפיתוחים שלהן, בעיקר אם הפיתוחים יקוטלגו כמערכות בסיכון גבוה, מה שיוביל להכבדת הרגולציה עליהן. כ-51% מחברות בתחום אמרו שהן מצפות להאטה בפיתוחים שלהן אם רגולציה כזו תעבור. "רגולציה בתחום הבינה המלאכותית צריכה להתמקד באפליקציות בסיכון גבוה בלבד", כתב נשיא מיקרוסופט בראד סמית' בפוסט שפרסם בבלוג החברה ביום רביעי שעבר. "ישנם ימים שבהם אני אופטימי ויש רגעים של פסימיזם לגבי השימוש של האנושות ב-AI", כתב סמית'. אין זה מפתיע שדווקא הוא התייחס לנושא. מיקרוסופט השקיעה כבר מיליארד דולר ב-OpenAI, וצפויה להשקיע עוד 10 מיליארד בשנים הקרובות. החברה גם הודיעה זה מכבר שהיא תשלב את הטכנולוגיה הזו במוצרים שונים שלה כמו מנוע החיפוש בינג או חבילת אופיס 365.

ברטון מצדו רוצה בעיקר שקיפות. "אנשים צריכים להיות מודעים לשיחה עם בינה מלאכותית ולא עם בן אדם", אמר. "שקיפות גם מהותית לחשיפת סיכוני הטיה או מידע מזויף". הכוונה היא שמודלים של בינה מלאכותית חייבים להיות מאומנים על בסיס מאגרי מידע מגוונים. אבל מעבר לפחד מזיוף, יש גם פחד מהפרת זכויות יוצרים למשל על ידי שימוש ביצירות מוגנות כדי לאמן או ללמד AI. האם שימוש בסימן רשום לאימון הוא דבר סביר? כבר כיום חברות החלו להגיש תביעות נגד שירותי AI שלדעתן מפרות את זכויות הקניין שלהן על מותג, טכנולוגיה או כל סימן רשום אחר. כאן מדובר בסוגיה הרבה יותר קשה לפיצוח, וברטון ציין שהיא צפויה לעלות לדיון בקרוב אצל המחוקקים האירופים.

לסיום, החקיקה האירופית גם תנסה לעשות סדר בשימוש של בינה מלאכותית ללימודים או הכשרות. בתי הספר הציבוריים בארה"ב וגם אוניברסיטאות מובילות בצרפת ואירופה כבר הודיעו על איסור שימוש ב-ChatGPT על ידי תלמידים או סטודנטים. החשש הוא משימוש של המערכת להכנת עבודות או למענה בבחינות. בנוסף לכך שימוש של AI בצורה כזו עשויה להוביל לפלגיאט, כלומר המערכת תספק תשובה שמבוססת על תכנים מוגנים. למשל חוקר שינסה להשתמש ב-ChatGPT לכתיבת מאמר עשוי לכלול בו תכנים שהמערכת פשוט תעתיק ממאמרים אחרים ששימשו לאימונה.

תגיות