אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
גיא רוזן: "הפייק ניוז של בחירות 2016 בפייסבוק - לא יחזרו" צילום: אביגיל עוזי

ראיון כלכליסט

גיא רוזן: "הפייק ניוז של בחירות 2016 בפייסבוק - לא יחזרו"

רוזן, חבר הנהלת פייסבוק ומי שאחראי על מיגור הפייק ניוז ושיח השטנה ברשת החברתית, מודה שהחברה לא עשתה מספיק כדי להגן על הגולשים; בתחילת השנה, הוא מספר, קיבל ממארק צוקרברג צ'ק פתוח למימון המלחמה הזאת; עיקר הטיפול מתמקד כיום במאבק בחשבונות מזויפים וכן בצמצום הרווחיות של התופעה; "נוטים לחשוב שפייק ניוז מונעות ממטרות פוליטיות, אבל לרוב המניע הוא כלכלי"

12.07.2018, 06:57 | עומר כביר

לקראת סוף שנה שעברה קיבל גיא רוזן מייל אישי מהבוס שלו, מייסד ומנכ"ל פייסבוק מארק צוקרברג. "לפני שאני מתחיל, כמה אתה צריך?" הוא שאל אותו. "כי זה הדבר הראשון, אחר כך אני אעשה את כל השאר". צוקרברג שלח את המייל רגע לפני שהחל להקצות את התקציבים והמשאבים שיחולקו לכל הקבוצות בחברה ב־2018. הוא למעשה הציע לרוזן צ'ק פתוח לקבל כמה משאבים שהוא מוצא לנכון. "באותו רגע נפל לי האסימון: אנחנו בראש סדר העדיפויות, והכי חשוב שנאיץ את העבודה שאנחנו עושים", אמר רוזן בראיון ל"כלכליסט".

קראו עוד בכלכליסט

רוזן, הישראלי הבכיר בפייסבוק, חבר הנהלת החברה וסגן נשיא מוצר, מוביל את תחום הבטיחות ברשת החברתית. הוא למעשה האחראי להתמודדות עם כמה מהסוגיות מצויות במוקד הביקורת על פייסבוק בשנים כמו פייק ניוז וביטויי שטנה.

רוזן הגיע לפייסבוק לפני חמש שנים, אחרי שהחברה רכשה את הסטארט־אפ שהקים, אונאבו שעוסקת בניתוח וייעול גלישה ברשת, בעסקה בשווי של בין 200-150 מיליון דולר. על בסיס רכישה זו הוקם גם מרכז המו"פ של פייסבוק בישראל, ואולם כיום יושב רוזן במטה החברה במנלו פארק בקליפורניה.

"מתחילת שנה שעברה אני מוביל את הארגון שאחראי על אבטחת המשתמשים בהיבט הטכנולוגי", הוא מספר. "אנחנו חושבים איך מאתרים ומסירים תכנים רעים או התנהגויות בעייתיות שנמצאות בפלטפורמה. ב־2016 הבנו שאנחנו לא עושים מספיק, שלא השקענו מספיק בתחומים האלו. מאז שנכנסתי לתפקיד הפננו משאבים אדירים לטובת התחום הזה, שנהפך למוקד של החברה מבחינת השקעת זמן, אנרגיה של אנשים ותקציבים שמופנים לעניין".

בין פייק ניוז לספאם

מאז מסע הבחירות לנשיאות ארצות הברית ב־2016 שבו למעורבות של רוסיה וגופים אחרים בפרסום בפייסבוק של פייק ניוז - ידיעות שקריות ומוטות שפרסמו בעלי אינטרס במסווה של מידע חדשותי אמין - היה תפקיד קריטי, סופגת החברה ביקורת רבה על כך שאינה עושה מספיק בתחום. מארק צוקרברג הוזמן לתת עדות בקונגרס בהקשר למעורבות הרוסית בבחירות ורבות מהשאלות שהופנו אליו עסקו בהתמודדות החברה על פייק ניוז.

גיא רוזן. "מדיניות הסרת הפוסטים נקבעת בהתייעצות לא רק בתוך החברה אלא גם עם אקדמאים וארגוני זכויות אדם. הרצון הוא לאזן בין חופש ביטוי לבין בטחון הגולשים", צילום: אביגיל עוזי גיא רוזן. "מדיניות הסרת הפוסטים נקבעת בהתייעצות לא רק בתוך החברה אלא גם עם אקדמאים וארגוני זכויות אדם. הרצון הוא לאזן בין חופש ביטוי לבין בטחון הגולשים" | צילום: אביגיל עוזי גיא רוזן. "מדיניות הסרת הפוסטים נקבעת בהתייעצות לא רק בתוך החברה אלא גם עם אקדמאים וארגוני זכויות אדם. הרצון הוא לאזן בין חופש ביטוי לבין בטחון הגולשים", צילום: אביגיל עוזי

רוזן, כמו צוקרברג, לא מהסס להודות שאכן החברה טעתה בגדול ולא השקיעה בנושא, אך גם שהיא הפנימה את הלקח היטב: "אם יש משהו שמאוד מאפיין את החברה זה שהיא יודעת לשנות כיוון. כולם מדברים תמיד על המעבר למובייל ב־2012. החברה הבינה שהעולם עובר למובייל. היינו חברת דסקטופ ועשינו מעבר חד, שהגיע ממארק. השינוי שקורה בשנה האחרונה בתחום שבאחריותי הוא באותו סדר גודל. כל מה שאנחנו עושים צריך להיות מתוך ראייה של אבטחת הקהילה, של מה הדברים הרעים שיכולים לקרות. היום כל צוות חייב לחשוב על הדברים הרעים שיכולים לקרות לו במוצר שהוא מפתח".

איך אתם מטפלים בפייק ניוז?

"קודם כל, מלחמה בחשבונות מזופים. הרבה פייק ניוז מגיע מחשבונות מזויפים. ההבט השני הוא להילחם בפייק ניוז שמוּנע ממטרות כלכליות. נוטים לחשוב שפייק ניוז מגיע ממטרות פוליטיות. למעשה, ברוב המקרים מדובר בגרסה המודרנית של ספאם, דרך להשיג צפיות והרבה מהעבודה מתמקדת בצמצום הרווחיות של הדבר הזה. ההבט השלישי הוא תוכנית לבדיקת עובדות בשיתוף ארגונים שמתמקדים בזה: כשבודק עובדות מסמן ידיעה ככזו שהופרכה, המערכת שלנו תוריד את התפוצה שלה משמעותית - בסדר גודל של 80%, ואנחנו גם מוסיפים לידה קישורים לידיעות קשורות כדי לתת זוויות נוספות".

אנחנו מתקרבים לבחירות אמצע הקדנציה בארצות הברית. הפעם זה יהיה שונה?

"בצד השני יש מישהו שבא לעבודה בבוקר ומנסה לחשוב איך אפשר לעקוף את האמצעים שבנינו. אנחנו עדיין בעיצומה של בנייה אבל מערכי ההגנה יבטיחו שמה שהיה לא יחזור באותה הצורה, הן בנושא של שקיפות, הן בפרסומות ואימות הזהות של המפרסמים. בנוסף, יש לנו צוותים שמחפשים מה הדבר הבא. מה הדרך הבאה שעלולים לנצל בה את המערכת: יכול להיות שזו תהיה גרסה קצת שונה של מה שהיה בפעם קודמת ויכול להיות שזה יהיה משהו לגמרי שונה. אנחנו מחפשים את הדברים האלו: יש לנו צוותים שמנסים לעקוף כל הזמן את מערכות ההגנה שבנינו וללמוד מה אמצעי ההגנה שאנחנו צריכים. ויש גם עבודה שלנו עם רשויות החוק וצוות משימה של ה־FBI”.

רוזן אומר ש”בסופו של דבר, פייסבוק היתה חלק מפאזל שהורכב ב־2016. יש עוד חלקים ולכן חשוב שנשתף פעולה גם עם גורמי ממשל וגם עם התעשייה כדי שנוכל לקבל תמונה גדולה יותר. יש גבול למה שחברה פרטית יודעת על מה שקורה בחוץ, ולכן הקשרים האלו מאוד חשובים".

שינוי אמיתי

בעיה מרכזית בפייק ניוז היא חוסר האמון של חלק מהגולשים בממסד והנטייה להאמין לקונספירציות. "אנחנו לומדים את הנושא עם גורמים אקדמיים”, אומר רוזן על התופעה. “אנחנו מנסים להבין מה אפשר לשים במוצר שיעזור להם ללמוד ולהבין. נכון שיש תהליך חברתי שבמסגרתו אנשים מתבצרים בעמדותיהם, אבל כל מה שבשליטתנו נעשה, חד־משמעית. כל התחום הזה של פייק ניוז ובטיחות המשתמשים - אני לא יכול להדגיש מספיק את החשיבות שמעניקים לנושא מארק ושריל (סנדברג, סמנכ"לית התפעול של פייסבוק, ע"כ) וכל צוות ההנהלה".

מול פייסבוק ניצבים גופים חזקים וכוחניים שמנסים לעצב את סדר היום ודעת הקהל לטובתם. דוגמה אחת היא רוסיה. דוגמה מובהקת אחרת לכך היא חברת “קיימברידג’ אנליטיקה” ששאבה בחשאי מידע אישי מ־78 מיליון גולשי פייסבוק. “בימים הראשונים שבהם נודע על אופן פעילותם רצנו להבין מה קרה. היינו צריכים להפנים ולשנות גישה באיך שאנחנו מתייחסים לנושא של פרטיות, להגביר הילוך. מארק הוא בן אדם לומד. הוא יודע לקבל מידע חדש ולהגיד, 'אוקיי, מה שהיה זה לא מה שיהיה. צריך לעבוד בדרך אחרת'. החשיבה היום בחברה היא איך חושבים על שימוש לרעה ברשת, איך עובדים עם מפתחים וגם איך פועלים מי שמנצלים לרעה שימוש במידע. זה משהו שתרבותית לא עשינו מספיק ובשנתיים האחרונות למדנו המון איך לעשות את זה. זה שינוי אמיתי".

בעקבות המהלכים שלכם הרבה מההפצה של פייק ניוז עברה לווטסאפ שבבעלות פייסבוק, שם כל המידע מוצפן ואין לכם אפשרות לראות את התכנים ולהתערב. איך אתם מתמודדים עם זה?

"הגישה שלנו היא להבין איזה כלים אנחנו יכולים לתת למשתמשים כדי שיוכלו לקבל את המידע ואת ההחלטות הנכונות. החל מהשבוע אנחנו מסמנים הודעה שבוצע לה Forward - שהיא למעשה הודעה שכתב משתמש אחר. במקסיקו עשינו ניסוי עם אחד מארגוני בדיקת העובדות במדינה. הם הקימו ערוץ ווטסאפ, שמאפשר למשתמשים להעביר אליו הודעות שקיבלו והם חוזרים אליהם עם אימות או שלילת העובדות. זו דרך להציע את היכולות האלו בצורה שמתאימה לחוויה של ווטסאפ. הרבה מהפעילות בווטסאפ היא בקבוצות. אז מספיק שיש לך מישהו אחד בקבוצה שיגיד, 'רגע רגע, זה לא באמת'. אם אתה נותן לאנשים את הכלי, יהיה מישהו שישתמש בו".

בעיית אכיפה

הבט מרכזי אחר בעבודתו של רוזן הוא הפעלת מערך סינון התוכן של החברה, שנועד לזהות ולהסיר מהרשת החברתית תכנים שמפרים את המדיניות שלה, דוגמת תמונות עירום או ביטויי שנאה. "העבודה מבוססת על שלושה הבטים: הבט טכנולוגי, שאני מוביל, הבט מדיניות והבט של תפעול הבקרים (אנשים שתפקידם לסנן תוכן ופוסקים אילו פוסטים להסיר, ע"כ). הכל אנחנו עושים בשילוב בין הצוותים, כי הכל תלוי בהכל. למשל, אם חושבים על מה המדיניות צריך לחשוב אם היא ישימה מבחינת הבקרים ומה ההשלכות הטכנולוגיות שלה; וכשבונים את הכלים הטכנולוגיים צריך לחשוב האם הם עונים על ההגדרה שבמדיניות.

מה מדיניות הסרת הפוסטים של פייסבוק?

"מדיניות ההסרה נקבעת בתהליך של התייעצות לא רק בתוך החברה אלא גם עם גורמים חיצוניים כמו אקדמאים, ארגוני זכויות אדם, מכוני מחקר. יש פה עניינים של איזון בין חופש הביטוי והרצון לאפשר מקום לשיח לבין רצון לשמור על מקום שמרגישים בו בטוחים. הצוות עושה עבודת חשיבה מאוד מעמיקה, עד לפרטי־פרטים למשל של מה נחשב עירום ומה נחשב אלימות גרפית. דיבור שטנה זה לא סתם משהו שלא נעים לי, אלא יש לכך הגדרות מדויקות מאוד. פרסמנו את הכללים האלו כדי לייצר דו־שיח, כי אין מדיניות אחת נכונה".

רוזן אומר שתכנים כתובים, דוגמת ביטויי שנאה תמיד יוסרו רק אחרי אישור של אחד הבקרים של החברה. תכנים אחרים, למשל תמונות עירום, מוסרים אוטמטית על ידי מערכת בינה מלאכותית (AI), שמסירה חלק ניכר מתכנים אלו עוד לפני שנצפו על ידי משתמשים. "אבל המדד הכי מעניין מבחינתי עוסק בתפוצה של תוכן שעובר על כללי הקהילה. כי הוא מציג כמה פספסנו: אם למשל, 0.09% מהצפיות היו בחומר שעבר את כללי העירום, כלומר מתוך 10,000 דברים שנצפו 9 עברו על הכללים, זה אומר שלא מצאנו את זה או מצאנו אבל טיפלנו מאוחר מדי. זה מסייע לנו לתעדף את הסדר שבו בקרים עוברים על תכנים, להבין מה הדברים שמתפספסים כי אנשים לא מדווחים עליהם והניטור האוטומטי לא עובד".

 מטה פייסבוק, צילום: אי פי איי מטה פייסבוק | צילום: אי פי איי  מטה פייסבוק, צילום: אי פי איי

הבעיה היא שלפעמים יכולות המערכות האוטומטיות לצנזר דרכים שלא צריך לצנזר. לפני כשנתיים, הסתבכה פייסבוק במשבר בינלאומי אחרי שמחקה פוסט של ראשת ממשלה נורבגיה, ארנה סולברג, שכלל את The Terror of War התמונה הנודעת של הצלם הווייטנאמי ניק אוּט, שבו נראית ילדה בת 9 כשהיא בורחת בעירום ממתקפת נפאלם בוויאטנם ב־1972.

רוזן מכיר את המקרה היטב: "כשיש תקלות כאלו אנחנו מפרקים את המקרה לגורמים, מסתכלים על כל העבודות ובוחנים את המקרה על פי אחת משלוש קטגוריות: בעיית מדיניות, בעיית פרוטוקול או בעיית אכיפה. במקרה הזה היתה בעיית מדיניות: היא לא היתה נכונה למקרה הספציפי הזה: תמונות עירום של ילדים זה משהו שמנוגד לא רק לכללים שלנו, אלא גם לחוק ואנחנו אוכפים את זה באופן מאוד חד: כל תמונה של ילד ערום חייבת לרדת. ופתאום, גילינו שיש חריגה לתמונות בעלות חשיבות היסטורית, ושאפילו במקרה הזה צריך לעדן ולהוסיף כלל למדיניות".

גולשים ישראלים זוכרים תקריות מוזרות אחרות שבהן הסירה פייסבוק פוסטים שעשו שימושים תמימים לגמרי במלה "כושי" על הטיותה, כמו מתכונים לעוגה כושית או פוסט של גורי אלפי שכלל אזכור של הצלם גיא כושי. רוזן לא הכיר את התקריות אלו, אך התקלה בהן נוגעת כנראה לבעיית הפרוטוקול והאכיפה: "יש כללים שקשורים למהן מלות גנאי הספציפיות למדינה מסוימת שאנחנו משתמשים בהן כחלק מתהליך הבקרה. יכול להיות שמדובר על מלת גנאי שלא היתה שם, או אולי מלה כבר לא נחשבת לגנאי.

"בעיית אכיפה זה אומר שנעשתה טעות בהבט הטכנולוגי או האנושי. אולי היה חסר בכלי הבקרה שמנע מאדם לקבל את ההחלטה הנכונה. אולי נעשתה טעות מבחינת הרקע או ההקשר שיש לאותו בן אדם. אני לא יודע מה היה שם. זו טעות באמת מרגיזה, וחלק מהתהליך הוא להבין מה הכשל ומה לומדים ממנו. להפיק מסקנות ספציפיות לשיפור המערכת. כן, יש טעויות. יהיו כל הזמן טעויות, זה בסדר ואנחנו צריכים ללמוד מהן ולעשות פחות טעויות".

תגיות