אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
מובילות ה-AI התחייבו ל"פיתוח אחראי". אך הדבר תלוי ברצונן הטוב בינה מלאכותית | צילום: MMD Creative/shutterstock

מובילות ה-AI התחייבו ל"פיתוח אחראי". אך הדבר תלוי ברצונן הטוב

שורת חברות, ובראשן OpenAI, גוגל ומטא, הגיעו לסיכומים עם ממשל ביידן; הצעדים כוללים פתיחת אלגוריתמים שלהן לביקורת חיצונית וסימון של תכנים שנוצרו על ידי בינה מלאכותית; אבל לממשל לא יהיו סמכויות לאכוף אותם

22.07.2023, 11:08 | עומר כביר

החברות המובילות בפיתוח בינה מלאכותית גנרטיבית, ובראשן OpenAI, גוגל ומטא, הגיעו לשורת סיכומים עם ממשל ביידן לגבי פיתוח אחראי של מודלי AI, ובהם פתיחת האלגוריתמים שלהן לביקורת חיצונית וסימון (Watermark) של תכנים שנוצרו על ידי בינה מלאכותית – כך לפי הודעה שפרסם אתמול (ו') הבית הלבן. מדובר בהתחייבויות וולונטריות, ולממשל לא תהיה סמכות מעשית לאכוף אותן.

הפריצה של מודלי בינה מלאכותית גנרטיבית בשנה האחרונה עוררה חששות רבים מניצול שלהם לרעה, למשל לצורך יצירת והפצת פייק ניוז בדמות תמונה (למשל תמונה מזויפת של מעצרו של דונלד טראמפ שנוצרה על ידי מודל הטקסט לתמונה Midjourney) או טקסט; או מפגיעה לא מכוונת למשל ממידע שגוי שמייצרים המודלים (שמכונה "הזיות") או מהטיה שלהם נגד קבוצות אוכלוסייה מסוימות.

הכלכלות הגדולות בעולם כבר החלו להניע מהלכי רגולציה שונים בהקשר זה, שבאופן נדיר לא מפגרים בצורה משמעותית אחרי כניסת הטכנולוגיה. במקביל גורמים בממשל ביידן נפגשו בחודשים האחרונים עם בכירים בענקיות טכנולוגיה ו-AI ועם נציגי ארגוני זכויות עובדים וזכויות אזרח כדי לדון בסוגיה. מגעים אלו הובילו להבנות, שפרסם הבית הלבן בשיתוף שבע חברות המובילות בתחום הבינה המלאכותית הגנרטיבית: אמזון, Anthropic, גוגל, Inflection, מטא, מיקרוסופט ו-OpenAI.

אחת ההתחייבויות הבולטות היא ביצוע בדיקות פנימיות וחיצוניות של מערכות בינה מלאכותית לפני השקתן. "בדיקה זו, שתבוצע בחלקה על ידי מומחים עצמאיים, תגן מפני הסיכונים המשמעותיים ביותר של AI וכן מהשפעות רחבות על החברה", נמסר מהבית הלבן. כן התחייבו החברות לשתף מידע בנושא ניהול סיכוני AI בין שחקנים בתעשייה, גופי חברה אזרחית וחוקרים באקדמיה.

עוד התחייבו שבע החברות להשקיע בהגנת סייבר כדי למנוע דליפה לא מבוקרת של מודלים, ולאפשר לגורמי צד ג' לזהות ולדווח על פרצות אבטחה אפשריות במערכות ה-AI שלהם. במטרה לחזק את אמון הציבור התחייבו החברות לסמן תוכן שנוצר על ידי AI וליצור מנגנונים טכנולוגיים חזקים אחרים שיאפשרו למשתמשים לדעת מתי תוכן נוצר על ידי בינה מלאכותית. "פעולות אלו מאפשרות ליצירתיות מבוססת AI לשגשג, אבל מפחיתות את הסכנה להונאה ולהטעיה", נמסר.

בנוסף התחייבו החברות לדווח פומבית על היכולות והמגבלות של מערכות ה-AI שלהן ועל התחומים שבהם ראוי ולא ראוי להשתמש בהן, ולתעדף מחקר בנושא סיכונים חברתיים אפשריים של מערכות אלו, כולל דרכים להימנע מהטיה ואפליה של קבוצות אוכלוסייה והגנה על פרטיות. לבסוף התחייבו החברות לפתח ולהשיק מערכות בינה מלאכותית מתקדמות שיעזרו לחברה להתמודד עם האתגרים הגדולים ביותר שלה.

"ממניעת סרטן עד מיתון שינוי אקלים וכל מה שבאמצע - בינה מלאכותית, אם תנוהל כראוי, יכולה לתרום משמעותית לשגשוג, לשוויון ולביטחון לכל", נמסר מהבית הלבן. "לחברות שמפתחות טכנולוגיות מגיחות יש מחויבות להבטיח שהמוצרים שלהן בטוחים. כדי להפיק את המרב מהפוטנציאל של AI, ממשל ביידן-האריס מעודד את התעשייה לעמוד בסטנדרטים הגבוהים ביותר כדי להבטיח חדשנות שלא מגיעה על חשבון הזכויות והבטיחות של אמריקאים. מחויבויות אלו, שהחברות בחרו ליישם מידית, מדגישות את שלושת העקרונות היסודיים של עתיד הבינה המלאכותית – בטיחות, ביטחון ואחריות".

בגוגל הגדירו את הסיכומים החדשים כ"אבן דרך במאמצי התעשייה להבטיח שבינה מלאכותית מסייעת לכולם". "התחייבויות אלו תומכות במאמצים של ה-G7, ה-OECD וממשלות בכל העולם למקסם את התועלות של AI ולמזער את הסיכונים", אמר נשיא גוגל למדיניות גלובלית, קנט ווקר. "אנחנו מאמינים שלהיות נועז ב-AI זה להיות אחראי כבר מההתחלה".

אנה מאקאנג'ו, סגנית נשיא למדיניות גלובלית ב-OpenAI, אמרה: "מקבלי החלטות בכל העולם שוקלים חוקים חדשים למערכות AI בעלות יכולות גבוהות. המחויבויות תורמות מהלכים ספציפיים ומוצקים לדיון מתמשך זה".

נשיא מיקרוסופט, בראד סמית, אמר שהסיכומים עם הבית הלבן "יוצרים בסיס שיסייע לוודא שההבטחה של בינה מלאכותית מקדימה את הסיכונים. אנחנו מברכים על המנהיגות של הנשיא בהבאת תעשיית הטכנולוגיה ביחד כדי לגבש צעדים מעשיים שיסייעו להפוך את הבינה המלאכותית לבטוחה יותר, מאובטחת יותר ומועילה יותר לציבור".

תגיות