אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.

האתיקה של האלגוריתמיקה או למה כותבי הקוד זקוקים לקוד אתי

האם בני האדם צריכים להציב גבולות לטכנולוגיה של ביג דאטה או שאפשר להחיל אותה על כל רחבי החיים. מו"ל כלכליסט בוועידת Mind the Data 2017

27.11.2017, 09:31 | יואל אסתרון
הרכב האוטונומי מציב כידוע את דילמת הגשר: לדרוס אמא עם תינוק בעגלה או חבורת קשישים שעושה טאי-צ'י, או אולי להקריב את עצמך ולעוף מעבר לגדר אל הנהר וכך להציל חיים, אבל לא את החיים שלך. לדילמה הזו כבר ברור שכותבי קוד לא יספיקו. צריך כפר שלם כדי לכתוב קוד לרכב האוטונומי – פילוסופים של מוסר, סוציולוגים של תרבות, כמרים ורבנים, רגולטורים, מחוקקים, אנשי ביטוח, מומחים לתורת המשחקים; כנראה גם פוליטיקאים. רק אלוהים יודע מה יעשה הרכב האוטונומי בזמן אמת על הגשר. השאלה היא האם כותבי קוד מאמינים באלוהים או באלגוריתמיקה.

לקריאת הכתבה בגרסה אנגלית לחצו כאן 

 

קראו עוד בכלכליסט

בינתיים, עד שנגיע לגשר, צריך לדבר על האתיקה של האלגוריתמיקה. כותבי הקוד זקוקים לקוד אתי לא רק בשביל המכונית האוטונומית, אלא בכל תחומי הביג דאטה. הדילמה הגדולה של הביג דאטה היא האם בני האדם צריכים להציב גבולות לאלגוריתמיקה או שאפשר להחיל אותה על כל רחבי החיים האנושיים. אני מקווה לשכנע אתכם שצריך להציב גבולות.

אתר התחקירים העצמאי פרו-פובליקה חשף לפני כחודשיים שפייסבוק מציעה למפרסמים לטרגט את המסרים שלהם לקהלים שיש להם עניין בשאלה "איך לשרוף יהודים" או "מדוע היהודים הורסים את העולם". פייסבוק ומארק צוקרברג בכבודו ובעצמו התנערו מהזוועה הזו בקלילות בטענה שלא עובדי פייסבוק אחראים לה, אלא המכונה המחוללת הצעות למפרסמים. בקיצור, האלגוריתם אשם. האלגוריתם אחראי. אבל מי אחראי על האנשים שכתבו את הקוד. האם אין זו הוכחה שכותבי הקוד זקוקים לקוד אתי?

תוכנות לזיהוי פנים – Facial Recognition - קיימות היום בנמלי תעופה ובמקומות אחרים לאיתור טרוריסטים. אבל היי, למה לזהות רק טרוריסטים? הפרצופים שלנו הם קומודיטי. אפשר אולי להתאים לפרצופים שלנו הרגלי קניות בקניון, העדפות קולינריות ברשתות מזון מהיר, מכונית, ביטוח בריאות. חוקרים בסטנפורד מצאו השנה שתוכנת מחשב שסרקה כמויות גדולות של פרצופים אנושיים מסוגלת לזהות בדיוק גבוה מאד של כ-80 אחוזים פרצופים של הומואים ולסביות. בארצות הברית המחקר הזה עורר סקרנות מעטה ושיח אקדמי מתון. אבל תוכנה כזו בידיו של משטר איסלמי עם סובלנות קלושה יותר לקהילה הלהטב"ית עלולה להיות קטלנית. ואם כך, האם כתיבת התוכנה הזו והפצתה היא עדיין לגיטימית?

ביג דאטה מאפשרת דירוג - Scoring - של בני אדם. בתחומים רבים קיבלנו מזמן בהכנעה ובאדישות את ה-Scoring שלנו. אשראי, כמובן. ביטוח, בטח. אנחנו כבר מזמן רכוש נטוש, פיונים במגרש המשחקים של התאגידים הגלובליים. קומודיטי של מארק צוקרברג, ג'ף בזוס, סרגיי ברין, ג'ק מא. אנחנו חלק מחבילות פרסום מטורגטות. אנחנו לא צדים הזדמנויות לטיול הבא שלנו. אנחנו הטרף של שתי ענקיות – פרייסליין ואקספידיה על שלל המותגים שלהם מבוקינג עד אגודה.  

יואל אסתרון, מו"ל כלכליסט, צילום: אוראל כהן יואל אסתרון, מו"ל כלכליסט | צילום: אוראל כהן יואל אסתרון, מו"ל כלכליסט, צילום: אוראל כהן

זה לא חדש. ב-2011 או 2012 הלקוחות של וולמארט התלהבו מהאפליקציה "Store Item Finder", שסייעה להם למצוא את המוצרים ברחבי החנות. אז עוד לא הבנו את הרעיון – כשאנחנו מחפשים את שישיית הבירה המועדפת עלינו אנחנו המוצר – וולמרט לומדת אותנו, רואה איפה אנחנו מסתובבים, האם אנחנו קונים אימפולסיביים, איך אפשר להעמיס עוד ועוד על העגלה שלנו.

היום האפליקציה הזו נראית נאיבית, בתולית, ביחס ליכולות של 2017. היום אנחנו מבינים שאנחנו כבר מדורגים, מסווגים, ממויינים, מאובחנים, מנוטרים מכף רגל ועד ראש, לא רק בשרתים של מי שרוצה למכור לנו משהו. שירותי ביטחון ואכיפת חוק פולשים לחיינו בלי חשבון כדי לבדוק אם אנחנו מסוכנים; פוליטיקאים לומדים אותנו בשביל הבחירות הבאות; בנקים קובעים מה הסיכוי שלנו להחזיר הלוואות; חברות ביטוח מעריכות את הבריאות ותוחלת החיים שלנו.

בסין עשו עוד צעד – תוכנית ה-Social Credit System שלהם קובעת דירוג כללי המשלב את כל מה שהם יודעים על האזרח – מה הוא קונה, איפה הוא גר, כמה חברים יש לו ברשת, הכול. זה לא פרק בעונה השלישית של "מראה שחורה". זה החיים עצמם. בסין. 

דירוג אנשים. בסין זה כבר קורה, צילום: Techinasia דירוג אנשים. בסין זה כבר קורה | צילום: Techinasia דירוג אנשים. בסין זה כבר קורה, צילום: Techinasia

בינתיים, עד 2020 , תכנית הדירוג היא פיילוט וולנטרי, לכאורה. אפשר כמובן להישאר מחוץ למטריקס, לא לקנות אונליין, לסגור את הפרופיל ברשתות החברתיות וכו', אבל אז השאלה היא מה קורה לאנשים בלי ניקוד. מי ייתן להם עבודה? מי ישכיר להם דירה? מי יסתכן לתת להם אשראי? מי יתחתן עם מישהו שאין לו ניקוד?

בהיסטוריה האנושית, האתיקה נוטה לדדות אחרי הטכנולוגיה, אבל אולי עדיין לא מאוחר להכניס אתיקה לאלגוריתמיקה. במלים פשוטות – אנחנו חייבים להציב לה גבולות. על אלה מתחומי חיינו אפשר להחיל ולהכיל אותה, ואיפה היא לא לגיטימית, לא מוסרית, לא שוויונית, לא אנושית.

איך נעשה את זה?

אנחנו יכולים ליזום רגולציה מידתית שתגביל את היכולת לאסוף עלינו נתונים, להפיץ את הנתונים האלה, ולהשתמש בהם בלי הגבלה כמעט. מול עוצמתם של שלטונות עריצים ומול כוח הטריליונים של גוגל, פייסבוק, אמזון, עליבאבא וכל השאר, דרושה התלכדות של מחוקקים וממשלות. זו לא גישה ריאקציונית, אלא צורך חיוני של הדמוקרטיות להתגונן בפני התקפה זדונית וחסרת תקדים על יסודותיה. אנחנו צריכים לומר בקול ברור: עד כאן. אנחנו חייבים לדרוש מנבחרי הציבור להילחם במי שמשתמש בטכנולוגיה בלי מעצורים.

למשל, כדי לעצור את התרחבות האלגוריתמיקה לכל תחומי החיים, אנחנו חייבים להתנגד כבני אדם ל-Scoring כוללני שלנו כבני אדם, נוסח הפיילוטים שסין משחקת בהם, ובמיוחד ל-Scoring בתחומים חיוניים כמו בריאות ורפואה. כפי שהמדע עצר אחרי שכפול הכבשה דולי, רגע לפני השכפול האנושי, כך הטכנולוגיה של הביג דאטה חייבת לעצור לפני סוגים מסוימים של Scoring. הסכמנו להיות הכבשים של ענקי הפרסום. אנחנו לא יכולים להסכים להיות בני אדם עם דירוג של אלפא, ביתא, גמא. אלא אם כן אנחנו מסכימים מראש לחיות בחברה דיסטופית נוסח "עולם חדש, מופלא" של אלדוס הקסלי. כי אם נחיה בעולם כזה – מי יבטיח לנו שלא נהיה האפסילונים שלו – האנשים שנוצרו כדי לבצע מטלות נחותות?

באווירה אופטימית זו, אני רוצה לפנות את הבמה לאנשים שחיים ויוצרים עולמות נפלאים בביג דאטה עם בקשה צנועה. בפראפרזה על ג'ון קנדי - אל תשאלו מה הביג דאטה יכול לעשות בשבילכם, תשאלו איך אתם יכולים לעשות עם הביג דאטה שלכם את העולם טוב יותר.

תגיות

7 תגובות לכתיבת תגובה לכתיבת תגובה

3.
הפחד הקיומי להישאר מאחור יכתיב את הקצב
השכפול האנושי "נעצר"? לא רק נדחה לזמן יותר מרוחק שבו היתרונות הכלכלים יתגשמו, היתרונות הגדולים יותר יהיו שיפור גנטי מתמשך של המין האנושי שבו כל חוקי המוסר ישברו לרסיסים זאת תהיה תחרות בין פרטים מעמדות ובין מדינות להשגת השיפור המירבי המפסיד נשאר מאחור כמו סוג של מין הומונידי שנכחד בעבר, כמובן לחשוב שהמין האנושי הוא השלב האחרון הוא נאיבי, גם בתחום האלגוריתם יהיה מאד קשה לכפות קוד גם שם התחרות הקיומית כלכלית תכתיב את הקצב, מה גם שמערכות ה GAI העתידיות (בינה מלאכותית כללית) רוב הקוד יכתב ע"י מערכת עצמה שאינה אנושית הוא ישפוך קוד פנימי בכמויות שבעצם כמעט לא יהיו אפשרית לדבג בצורה הקימת כיום אנחנו לא ממש נבין מה קורה בפנים אלה יותר נבחן את המערכת לפי התוצאה ועלול להיות מאד קשה לשנות הדרך שזה מבוצע,
תכנת סקפטי  |  27.11.17
לכל התגובות