אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
הקץ לנשק? מנכ"ל גוגל חושף קוד אתי לפיתוח כלי בינה מלאכותית צילום: Melinda Sue Gordon

הקץ לנשק? מנכ"ל גוגל חושף קוד אתי לפיתוח כלי בינה מלאכותית

סונדאר פיצ'אי הציג את עקרונות ענקית הטכנולוגיה לפיתוחי כלי AI - יצירת תועלת לחברה האנושית, הימנעות מנזק לבני אדם, מלחמה ביצירה או חיזוק של דעות קדומות, הגנת פרטיות הציבור והתרחקות מיישומים צבאיים

10.06.2018, 10:35 | עומר כביר
מערכות בינה מלאכותית צריכות להיות מועילות לחברה, להימנע מיצירת או חיזוק אפליה, ולשמור על פרטיות המשתמשים - כך הצהיר מנכ"ל גוגל, סונדאר פיצ'איי, בפוסט שפרסם ושמציג בעקרונות האתיקה של ענקית הטכנולוגיה בפיתוח AI.

קראו עוד בכלכליסט

גוגל ספגה בשבועות האחרונים ביקורת חריפה, הן מבחוץ אבל בעיקר מצד עובדי החברה, בעקבות דיווחים שלפיהם היא מפתחת כלים מבוססי בינה מלאכותית לפנטגון, שנועדו בין השאר לסייע לרחפנים לזהות מטרות לתקיפה. בעקבות הסערה הודיעה החברה בתחילת החודש שלא תחדש את החוזה עם הפנטגון לאחר שיסתיים ב-2019. עתה מנסה פיצ'אי לשקם את הנזק התדמיתי בעקבות הצגת קוד אתי בן 7 עקרונות שמיועד להדריך את פעילות החברה בתחום.

סונדאר פיצ סונדאר פיצ'אי | צילום: אי פי איי סונדאר פיצ

"טכנולוגיה עוצמתית כשזו מעלה שאלות עצמתיות לגבי השימוש שנעשה בה", כתב מנכ"ל גוגל בפוסט שפרסם בבלוג הרשמי של החברה. "האופן שבו תפותח בינה מלאכותית ישפיע על החברה בשנים הבאות. כמנהיגים ב-AI, יש לנו אחריות לעשות את זה נכון".

הקוד האתי של גוגל ל-AI מבוסס על שבעה עקרונות. הראשון: יצירת תועלת לחברה. "נתייחס למגוון של משתנים חברתיים וכלכליים, ונמתקדם רק אם נחשוב שההטבות גדולות מהסיכונים ומהחסרונות", כתב פיצ'אי. "נשאף להנגיש מידע איכותי ומדויק באמצעות AI, תוך כיבוד נורמות תרבותיות, חברתיות ומשפטיות במדינות שבהן אנו פועלים".

הסכנה האמיתית בבינה מלאכותית היא האדם שכותב אותה מה יכולות לעשות חברות גדולות עם טכנולוגיות AI בלי מגבלות מוסר או רגולציה? יוסי גורביץ, 2 תגובותלכתבה המלאה

העקרון השני קובע שמערכות AI צריכות להמנע מיצירת או חיזוק דעה קדומה: "אלגוריתמים של בינה מלאכותית יכולים לשקף, לחזק או להפחית דעה קדומה. נפעל להמנע מפגיעה לא מוצדקת באנשים, במיוחד כאשר מדיבר במאפיינים רגישים כמו גזע, מוצא, מגדר, לאום, הכנסה, נטייה מינית, דעות פוליטיות ואמונות דתיות".

העקרון השלישי והרביעי עוסקים בתכנון ובדיקת הבטיחות של מערכות AI, ובכך שהן צריכות להיות נתונות לשליטה ובקרה של בני אדם. העקרון החמישי עוסק בסוגיית הפרטיות. "נשלב את עקרונות הפרטיות שלנו בפיתוח טכנולוגיות ה-AI שלנו. נספק הזדמנויות לתת הודעה והסכמה, נעודד ארכיטקטורה עם מנגנוני פרטיות ונספק שקיפות ושליטה ראויים לגבי שימוש במידע".

העקרון השישי עוסק בעמידה בסטנדרטים גבוהים של מחקר מדעי, והשביעי מבטיח שגוגל תפעל "להגבלת יישומים מזיקים". כן מתחייב מנכ"ל גוגל שהחברה לא תפתח טכנולוגיית AI שעלולת לגורם לנזק כולל; נשק או טכנולוגיות שיישומן יכול לגרום ישירות לפגיעה פיזית באנשים; טכנולוגיות שאוספות או משתמשות במידע לצורך מעקב שמפר מוסכמות בינלאומיות מקובלות; וטכנולוגיות שמטרתן סותרת עקרונות מקובלים של חוק בינלאומי וזכויות אדם.

"לא מדובר במושגים תיאורטיים", סיכם פיצ'אי. "אלו סטנדרטים אמיתיים שיכתיבו בפועל את המחקר ואת פיתוח המוצר שלנו וישפיעו על ההחלטות העסקיות שלנו. אנחנו מאמינים שעקרונות אלו הם הבסיס הנכון לחברה שלנו ועתיד פיתוח ה-AI".

תגיות