אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
איך מקודדים מוסר תורים למטרו במוסקבה, לאחר שגוגל הקפיאה את היכולת לשלם באמצעות גוגל פיי. "המהלומה שחברות כאלה יכולות להנחית על רוסיה משקפת את היותן שחקניות פ | צילום: גטי אימג'ס

איך מקודדים מוסר

התוקפנות הרוסית דחפה את ענקיות הטכנולוגיה לנקוט צעדי ענישה, וכך חשפה את הכוח האדיר שהן צברו - וגם את ההתחמקות הממושכת שלהן מהתמודדות עם סוגיות אתיות. באילו נסיבות מותר להן לצנזר, להשבית או לנתק משירותים שהופכים חיוניים?

16.03.2022, 10:31 | ויקי אוסלנדר

בתוך ימים ספורים מרגע שרוסיה פלשה לאוקראינה, הפך מגזר הטכנולוגיה לציר בולט בסיפורה של המלחמה הקשה. באוקראינה, הממשלה המקומית פרסמה כתובת של ארנק דיגיטלי, ייעודי לתרומות במטבעות קריפטו, ובמקביל שכנעה את היזם אילון מאסק לוודא שמערך הלוויינים שבשליטתו, סטארלינק, יתמוך בקישוריות המדינה במקרה שרוסיה תפגע בתעבורת הרשת שבה.


קראו עוד בכלכליסט:


קבוצת ההאקרים הוותיקה אנונימוס הודיעה כי תתגייס למאבק במרחב הסייבר נגד רוסיה. יוטיוב חסמה מערוצי תקשורת ממשלתית רוסיים את האפשרות להרוויח משידוריהם בפלטפורמה שלה; פייסבוק וטוויטר מנעו גם הן פרסומים של כלי תקשורת רוסיים מגויסים. אפל עצרה את מכירת מוצריה ברוסיה. ועוד שלל חברות, יזמים ועובדים התייצבו לצידה של אוקראינה ופעלו לתמוך בה, פשוט משום ש"זהו הדבר הנכון לעשותו".


איך מקודדים מוסר, איור: יונתן פופר איך מקודדים מוסר | איור: יונתן פופר איך מקודדים מוסר, איור: יונתן פופר


ההתייצבות הזו לצד אוקראינה אינה מובנת מאליה. העמדה המוסרית שענף ההייטק מגבש ביחס לאירועים עולמיים מאופיינת בהתנהגויות מגוונות, לא עקביות וגם סותרות: פעם התגובות מונחות רווח, פעם אחרת הן מונעות מאינטרסים פוליטיים, ותכופות הן מעוצבות על ידי לחצים, פנימיים או חיצוניים. כך, בפעם אחת פייסבוק נלחמת באגרסיביות בחדשות מזויפות, ובהזדמנות אחרת לא תעשה כמעט דבר; גוגל יכולה לאפשר לאלגוריתם שלה לקדם תיאוריות קונספירציה ביוטיוב, אבל עלולה גם לפעול בנחישות לריסונן של אלו; וחברות רבות דוחפות להטבת תנאי העובדים שלהן, בזמן שהן מבצעות מיקור חוץ של פס הייצור למפעלים שמנצלים ילדים.

למעשה, קשה להצביע על ענף שמצוי במבוך סבוך יותר של דילמות מוסריות. בשנים האחרונות מגזר הטכנולוגיה צבר השפעה אדירה על חיי אנשים בכל רחבי העולם. "נקודת האור היחידה שאפשר לראות במשבר הנוראי היא שפתאום לעולם המערבי יש תמונה מוסרית ברורה", אומר ד"ר דן קוטליאר מהמחלקה לסוציולוגיה באוניברסיטת חיפה, שעוסק בין היתר באתיקה וטכנולוגיה: "ברור מי פה הצד החיובי ומי השלילי, וחברות טכנולוגיה יישרו קו עם העמדה המוסרית של גורמי הכוח במערב".

שובה של האתיקה?

"אני פחות מתרשם מהפעולה האתית של החברות האלו, ותופס את זה יותר כעדות לעוצמתן: למשל, התמונות מרוסיה אחרי שגוגל עצרה את שירותי גוגל־פיי ונוצרו תורי ענק ברכבות. היכולת של החברות האלו להפעיל כוח כל כך מהיר והחלטי בצורה אוטונומית, בלי שהן כפופות לאיזשהו גוף דמוקרטי שאמר להן 'תפעלו כך', מדגישה איזה כוח יש להן במערכת הפוליטית הגלובלית היום".

האם לחשמל יש אתיקה?

מגוון ההשפעות של חברות הטכנולוגיה והמוצרים שהן מפתחות אינו סטטי, אלא מתרחב כל הזמן. החברות עם ההשפעה הברורה והאלימה ביותר הן אלו שמפתחות כלי סייבר התקפיים והגנתיים, מערכות בינה מלאכותית שמוטמעות בכלי נשק כדי לייעל אותם או להפוך אותם אוטונומיים, וחברות שמעניקות שירותי ענן לתעשיות ביטחוניות וצבאיות.

אבל ישנן חברות בעלות השפעה עמוקה לא פחות, אך מטושטשת יותר — למשל כאלו שמציעות כלים לניתוח נתונים שעל בסיסם נקבעים, למשל, זכאות לסיוע סוציאלי, הקצאות לטיפול ביתי צמוד, או היקפי הטיפולים שלהם יזכו חולים, דרי בתי אבות ואסירים. עם אלו נמנות גם חברות ביטוח שנעזרות בבינה מלאכותית ובתהליכי אוטומציה כדי לקבוע פרמיות, חברות כרטיסי אשראי שמשתמשות במערכות כאלו כדי להעריך סיכונים ולקבוע תנאי משכנתאות; ואפילו שופטים שמשתמשים באלגוריתמים כדי להעריך אם פושע יחזור לסורו כדי לקבוע את גזר הדין.

המטושטשות מכולן הן חברות הרשתות החברתיות וחברות "פלטפורמה", שמוצריהן לא נועדו לקבל החלטות על חייהם של בני אדם, אלא מתווכים בינינו ובין אחרים. לחברות אלו השפעה "רכה" על הציבור, נסתרת אך משמעותית לא פחות, כמו על מצבי רוח, דימוי עצמי, זרימת המידע ואיכותו, עיצוב העדפות והתנועה שלנו במרחב. לעיתים מוצרים אלו משנים מהותית שווקים כמו שוק העבודה (למשל במקרה של וולט ואובר) או הדיור (במקרה של איירביאנבי).


תורים למטרו במוסקבה, לאחר שגוגל הקפיאה את היכולת לשלם באמצעות גוגל פיי. "המהלומה שחברות כאלה יכולות להנחית על רוסיה משקפת את היותן שחקניות פוליטיות גלובליות"
, צילום: גטי אימג תורים למטרו במוסקבה, לאחר שגוגל הקפיאה את היכולת לשלם באמצעות גוגל פיי. "המהלומה שחברות כאלה יכולות להנחית על רוסיה משקפת את היותן שחקניות פוליטיות גלובליות" | צילום: גטי אימג'ס תורים למטרו במוסקבה, לאחר שגוגל הקפיאה את היכולת לשלם באמצעות גוגל פיי. "המהלומה שחברות כאלה יכולות להנחית על רוסיה משקפת את היותן שחקניות פוליטיות גלובליות"
, צילום: גטי אימג


אך מהי משמעות ההשפעות האלו, ומה יש לעשות איתן, אם בכלל? התשובות לשאלות הללו אינן מוסכמות. כבר שנים שתיאורטיקנים ופילוסופים, ממרקס ועד היידיגר, דנים בשאלת הניטרליות של הטכנולוגיה: אם לטכנולוגיה יש כוונה מוסרית, ואם היא מעוצבת ומתוכננת כך שתשפיע בצורה מסוימת על העולם.

במשך שנים, חברות הטכנולוגיה פעלו ופיתחו מוצרים מתוך עמדה עקבית למדי שטכנולוגיה היא "בלתי נמנעת", ולכן היא ניטרלית ו"תמימה מוסרית", גם אם בונים אותה אנשים בעלי השפעה או כוונה. את העמדה הזו תמצת השחמטאי והפוליטיקאי גארי קספרוב, שביקר את הדיסציפלינה המתגבשת "אתיקה וטכנולוגיה": קספרוב טען אז שכפי שאין "אתיקה לחשמל", כך גם אין אתיקה בטכנולוגיה, ושהיבטים פוליטיים נובעים לא מהטכנולוגיה אלא מהאופן שבו אנשים משתמשים בה. מצדדי העמדה הזו טוענים כי כל דילמה מוסרית שעלולה לעלות משימוש בתוכנה צריכה להיפתר על ידי פוליטיקאים, רגולטורים וכיכר העיר. העמדה הזו אפשרה למגזר הטכנולוגיה לא לנהל דיון מוסרי מהותי, ובמקומו לדון בעתיד: עתיד הבנקים, עתיד הביטוח, עתיד התחבורה, עתיד מערכת החינוך והבריאות, עתיד הדיור, המזון או העיתונות, הדואר ואפילו עתיד האהבה.

בשנים האחרונות הגישה הזו מתקבלת בהתנגדות קולנית בתעשייה ומחוצה לה, מעובדים, מהציבור ומהמערכות הפוליטיות. המתנגדים טוענים כי התייחסות לטכנולוגיה כניטרלית היא מסוכנת, משום שמדובר במגזר שעוסק בעתיד באופן פתולוגי: איך דברים צריכים להיראות, מה יהיה בהם, ואילו כלים יש לבנות כדי להגשים מטרות אלו — לעיתים ממש כדי להושיע את הציבור מעתיד אחר, דיסטופי. ההנחה שטכנולוגיה היא ניטרלית מעלימה את ההשפעה הרציפה של הסובייקטיביות האנושית עליה: מזהות האנשים שמחפשים (או מזהים) בעיות שיש לפתור, דרך הבעיות שאותן הם בוחרים לפתור, ועד הפתרונות שהם מגבשים.

ד"ר דן קוטליאר: "הלחצים האדירים דחפו את חברות ההייטק לשיח אתי, וכעת כולם מנופפים בצוותי אתיקה, אבל בהנהלות ובבורדים עדיין יש המון ציניות. גם האתר של NSO מתהדר בקוד אתי; האם זה באמת השפיע על האופן שבו הם ייצרו ומכרו את פגסוס?"

כשמניחים שטכנולוגיה אינה ניטרלית עולות שאלות חדשות, שיכולות לחשוף משמעויות שקשורות לכסף, כוח, חוק ואחריות: למשל, מי אחראי למוצר ולאופן שהוא בנוי, מסייע או פוגע; איך מרוויחים ממנו ואילו עקרונות הוא מקדם; ואיזו אחריותיות (Accountability) ראוי לדרוש ממי שבונה את הטכנולוגיה, ממי שרוכש אותה וממי שמפעיל אותה.

עולות מכך גם שאלות יותר "טכניות", כמו איך מקנים לאלגוריתם עקרונות מוסריים שבאמצעותם יבחין בין מותר ואסור? איך הוא יידע מי ראוי לטיפול רפואי מקיף, או מתי לנקוט פעולה צבאית, או איזה תוכן יש לצנזר? האם רחפן אוטונומי בעל יכולות לבצע התנקשויות הוא דבר ראוי או פסול מעיקרו, ואם הוא ראוי, האם זה רק בידיים מסוימות? האם יש מערכת מוסר אחת אוניברסלית, שלפיה ראוי לקודד ולתכנת, או שיש גישות שונות ורלוונטיות? האם חברות טכנולוגיה ועובדיהן אמורים לקבוע למכונות מהי הדרך הנכונה לפעול? איך מקודדים דבר מורכב כל כך כמו מוסר?

העובדים נזכרו שיש להם מצפון

קשה לומר במדויק מתי תעשיית הטכנולוגיה משנה את גישתה בנוגע לאחריות ואחריותיות למוצריה, אבל את אחת מנקודות המפנה אפשר לסמן בנובמבר 2018, כש־20 אלף עובדי אלפבית, החברה־אם של גוגל, נטשו את המשרדים במחאה כלל־עולמית בדרישה לשנות את האופן שבו ענקית הטכנולוגיה פועלת בנושאים כמו אפליה והטרדה מינית. זמן לא רב אחר כך העובדים מחו גם על פרויקט של גוגל בסין, ועל שיתוף פעולה של החברה עם הפנטגון ("פרויקט מייבן"). עובדי גוגל דרשו אז לראשונה שלצד שיקולים של הכנסות ורווחים, החברה תעצב את פעילותה בהתאם למניעים נוספים: כך, הם נלחמו לתקן את היחס הלא־שוויוני כלפי עובדי קבלן ולבטל מערכות עובדים דו־מעמדיות, ודרשו שהחברה תקים מערכת לחושפי שחיתויות, ותחדל למנף את הנתונים שהיא אוספת כדי לשכלל מערכות צבאיות רצחניות.

מחאה זו הובילה גישה נרחבת יותר בקרב עובדי חברות טכנולוגיה אמריקאיות, ובשלב הבא אלו פנו להפעיל את כוחן נגד רשות ההגירה והמכס האמריקאית (ICE), והמדיניות הנוקשה שיישמה. במסגרת הקמפיין, שזכה לכינוי No Tech for ICE, עובדים בחברות כמו אמזון, סיילספורס ומיקרוסופט נלחמו כדי שהחברות הללו לא ימכרו מוצרים ולא יתמכו בפעילות של רשות ההגירה.

לא פחות חשוב, בגוגל הקימו ועדת אתיקה (עם אתגרים משל עצמה), וזו המליצה שלא להמשיך בפרויקט מייבן עם הפנטגון. בהמשך היא אף פרסמה עקרונות אתיים שלפיהם גוגל לא תתכנן או תטמיע מערכות בינה מלאכותית ב"נשק או טכנולוגיות אחרות, שמטרתן או היישום העיקרי שלהן הוא לגרום ישירות לפגיעה באנשים, או לכל הפחות להקל את ביצועה".


פרנסס הוגן, שהדליפה מסמכים מביכים של פייסבוק. ההדלפות הפכו כלי מרכזי בלחץ לגיבוש עמדה מוסרית, צילום: רויטרס פרנסס הוגן, שהדליפה מסמכים מביכים של פייסבוק. ההדלפות הפכו כלי מרכזי בלחץ לגיבוש עמדה מוסרית | צילום: רויטרס פרנסס הוגן, שהדליפה מסמכים מביכים של פייסבוק. ההדלפות הפכו כלי מרכזי בלחץ לגיבוש עמדה מוסרית, צילום: רויטרס


אלא שהמחאה הזו לא שינתה מהותית את פעילות החברות, שעדיין עוסקות ללא הרף במתן שירותי ענן לממשלות, ולמשל מפתחות בעבורן אמצעי זיהוי פנים וביומטריה אחרים. כך, בזמן שעובדי גוגל הצליחו לעצור לרגע את עסקי החברה עם רחפנים רצחניים, דמויות מפתח במגזר הטכנולוגיה דוחפות קדימה. דו"ח שהוגש לקונגרס האמריקאי על ידי ועדת הביטחון הלאומי לבינה מלאכותית (NSCAI) קבע כי על ארצות הברית חל "ציווי מוסרי", לא פחות, להאיץ פיתוח של כלי נשק אוטונומיים. לטענת ה־NSCAI, לא רק שלארצות הברית יש עליונות מוסרית להשתמש בנשקים אלו לפי הדין הבינלאומי (וליריבותיה סין ורוסיה אין), אלא שיש להאיץ את פיתוח התחום, שהרי מערכות אלו ישמרו על חיי אדם ויקבלו החלטות אתיות יותר מחיילים בשטח. יו"ר הוועדה הוא אריק שמידט, לשעבר יו"ר ומנכ"ל גוגל, ויושבים בה גם, בין היתר, מנכ”ל אמזון אנדי ג'אסי והמנכ”לית־שותפה של אורקל צפרא כץ.

מחלוקת מוסרית דומה נוגעת להעברת מערכות רווחה, בנקאות, ביטוח וטיפול רפואי לכלים אוטומטיים לגמרי. יש הטוענים כי הוצאת הגורם האנושי מהמשוואה אמורה להפוך את המערכות הקריטיות הללו לענייניות ויעילות הרבה יותר. בפועל, מאמצים להפוך מערכות אלו לאוטומטיות הביאו לתוצאות בעייתיות, ותכופות התגלו כמקצינות סטריאוטיפים באשר לגיל, מגדר, גזע ואפילו מקום מגורים. מכונות שנועדו לספק סיוע הפכו למכונות של שלילת זכאויות, עם שיפוט שהפך נוקשה וטיפול רפואי מוגבל. לעומת זאת, הרשתות החברתיות וחברות הפלטפורמות נאלצות להתמודד עם הרבה יותר ביקורת פנימית וחיצונית על שאיבת המידע מילדים, השימוש לרעה בפלטפורמה למסחר לא חוקי, תפוצת דיבור שנאה, מידע מוטעה או חדשות מזויפות.


ד"ר דן קוטליאר: "הלחצים האדירים דחפו את חברות ההייטק לשיח אתי, וכעת כולם מנופפים בצוותי אתיקה, אבל בהנהלות ובבורדים עדיין יש המון ציניות"
, צילום: נחום סגל ד"ר דן קוטליאר: "הלחצים האדירים דחפו את חברות ההייטק לשיח אתי, וכעת כולם מנופפים בצוותי אתיקה, אבל בהנהלות ובבורדים עדיין יש המון ציניות" | צילום: נחום סגל ד"ר דן קוטליאר: "הלחצים האדירים דחפו את חברות ההייטק לשיח אתי, וכעת כולם מנופפים בצוותי אתיקה, אבל בהנהלות ובבורדים עדיין יש המון ציניות"
, צילום: נחום סגל


"עד היום לא התקבל קוד אתי מחייב אחד", מסביר קוטליאר. "החברות עדיין מכתיבות לעצמן את כללי המשחק. למקצועות המרכזיים בתחום הזה, כמו מדעני המחשב והמתכנתים, אין מנגנונים מקצועיים שסובבים סביב אתיקה. אין להם ועדות אתיקה או כלים שמעודדים אחריותיות של מי שיוצר את כלי הפעולה שלו עצמו".

אם חרם צרכני לא מרסן את החברות, אולי הדלפה תעזור

הבחירה של חברות רבות לא להתמודד עם השאלות שעולות מהשימוש במוצריהן הביאה לתופעה הולכת וגוברת של מדליפים וחושפי שחיתויות. בשנים האחרונות נראה כי כלים סטנדרטיים של חרם צרכני, רגולציה חיצונית ואפילו זעם מצד בעלי מניות אינם מדגדגים את החברות, שממשיכות בשלהן: צומחות באין מפריע, מגייסות כאילו אין מחר ומשיגות הערכות שווי אסטרונומיות (לפעמים בלי שיש להן בכלל מוצר). הדלפה יכולה לערער את המצב הזה בן רגע — בין שמדובר בסוזן פאולר שחשפה את התרבות הרעילה באובר, בכריסטופר ווילי שחשף את פרשת קיימבריג' אנליטיקה, בטיילור שוורץ שפוצץ את בועת ת'רנוס, או בפרנסס הוגן שהדליפה כמויות עצומות של מידע מביך של פייסבוק.

הלחצים שהפעילו העובדים, האקדמיה וארגונים לא ממשלתיים הביאו לשינוי דרמטי בשיח על אתיקה וטכנולוגיה, מסביר קוטליאר. את השינוי הזה מהדהדות גם החברות עצמן, בין היתר כדי לשלוט בשיח ולעצב את הרגולציה לפי ראותן. "החברות עצמן עושות את כל הקולות שצריך עם עובדים וצוותים מומחים באתיקה. האם זה באמת נכנס למוצרים עצמם ורואים שיפור? מוקדם להגיד, האם זו מסכת יח"צ מתוחכמת או שינוי אמיתי? קשה להגיד. ברור שלחברות האלו יש אלפי עובדים שמבינים שזה חשוב, אך עם זאת ברור שבהנהלות ובבורדים יש המון ציניות. גם באתר של NSO יש קוד אתי, ועדה אתית ומסמכים להסדרה. האם זה באמת השפיע על איך שהם מייצרים ומוכרים את פגסוס? אין לי מושג, אולי אחרים יטענו שלא".

החברות משרטטות את הגבולות, הציבור נשאר מחוץ לדיון

זה אולי מייצר דיון מורכב בתוך החברות, מול העובדים ולפעמים מול הציבור הרחב, אך הבעיה היא שהזירה היחידה שבה החלטות מתקבלות היא בתוך החברות עצמן. הציבור ונבחריו לא מקיימים על גבולות המוסר שמנהלים את חייהם שום שיחה. מובן שיש לחברות הזכות המלאה להכריע מתי הן מעוניינות לפעול ומתי לא, היכן הן מציבות את הקווים האדומים שלהן, ובכל זאת, קשה לקבל בהכנעה את הרעיון שחברות טכנולוגיה ועובדיהן יקבלו על דעת עצמם ולבדם החלטות מהותיות לציבור הרחב. החלטות כגון: אם מוסרי או לא לפתח רובוטים רצחניים, אם הגיוני או לא לצנזר פוליטיקאים, מתי מידע הוא אמין מספיק או לא אמין מספיק. מתי שיח הופך מסוכן או אלים, מתי הוא מוגדר שנאה או מסית.

לכל אחד מאיתנו יש תפיסה ברורה של דברים כאלה ("לא לרחפנים שמחליטים על חיי אדם, כן לשימוש בטכנולוגיית זיהוי פנים במשטרת ההגירה; כן לצנזר מתנגדי חיסונים, לא לצנזר פוליטיקאים"), אבל תכופות הגבולות שמשרטט כל אחד שונים לחלוטין. למשל, האם סביר שגוגל החליטה לצנזר אמצעי תקשורת ממשלתיים ברוסיה ולא לתת לעולם גישה לתכנים אלו, משום שהיא רואה בתכנים שלהם תעמולה? אם כן, מדוע לא צנזרה את גל"צ במבצע "שומר החומות", או את NPR בעת המלחמה בעיראק? ואולי בדמוקרטיות שיחה צריכה להישאר פתוחה, גם במחיר הסיכון שיהיו מי שינסו לנצל את החופש הזה? האם כשמדובר באנשים שמאמינים שחיסונים הם מסוכנים, נכון לצנזר אותם מחשש לפגיעה בחיי אדם, או שזכות הדיבור חזקה יותר, וזהו תפקידם של מוסדות המדינה לבנות את עצמם כמקורות מידע אמינים, שנלחמים במידע פייק באמצעות מידע מדויק?

"כדי לטפל בסוגיות כאלה, נדרשת חזית רחבה מאוד שכוללת התנהלות כמה שיותר דמוקרטית וכמה שיותר שקופה, גם ברמת העובדים, רמת הארגונים שבהם עובדים וגם ברמה הפוליטית", קובע קוטליאר. "בו־זמנית, חשוב גם להשקיע באוריינות האלגוריתמית של הציבור, כדי שיבין ויוכל להיות שותף בדיונים האלו, וגם יוכל לפעול באופן אישי או ספציפי כדי לשמור על עצמו טוב יותר מפני סיכונים. אין פתרון פלא, כי אלו חברות עם המון כוח והטכנולוגיה מתקדמת מהר מאוד".

תגיות