אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
כך כבשו ניאו נאצים את מערכת הטוקבקים הכי גדולה ברשת

דו"ח טכנולוגי

כך כבשו ניאו נאצים את מערכת הטוקבקים הכי גדולה ברשת

מערכת דיסקאס, שמחליפה את כלי ניהול התגובות באתרים רבים, נמצאת בשליטה של גזענים המפיצים שנאה ואלימות, האם ישנו גבול לכמה שיכולה תוכנה ללמוד ועדיין להישאר אפקטיבית ואתר הגיימרים הכי גדול בעולם התעלם מליקוי אבטחה חמור

06.06.2018, 13:42 | ניצן סדן
מפלטו של הנבל

השנה האחרונה היתה רעה מאוד עבור התנועות הניאו נאציות באינטרנט; אתרי ימין קיצוני סולקו משירותי אחסון ותשלום, התוכן שלהם נחסם בפלטפורמות רבות, אפילו ברדיט - שתמיד גילתה יחס ליברלי גם כלפי בעלי דעות מעוותות במיוחד. אבל כמו הרפס, מפיצי השנאה תמיד מצליחים לחזור - והפעם, בשירות התגובות Disqus. מדובר בשירות שמוצע לאתרים כמערכת טוקבקים חיצונית, ומקל על מפעיליהם בסינון וטיפול בתגובות. דיסקאס נשען על הצבעות ומעין לייקים, שקובעים איזו תגובה תקודם ותיחשף ואיזו תוצנע. השירות מאפשר תגובות אנונימיות, ומשתמשיו יכולים להגיב באתרים רבים דרכו, בלי לחשוש שזהותם תיחשף.

ועתה נראה שהימין הקיצוני הוא שנותן שם את הטון. תחקיר באזפיד מצא שהפעילות המאורגנת של הניאו נאצים הצליחה למקם את דברי השנאה שלהם בראש שרשור של 70,000 תגובות אחרות. הם מפיצים קריאות לאלימות נגד מיעוטים, זרים, להט"בים, יהודים, מוסלמים ונשים. בין המגיבים תמצאו לא מעט מאלה שהועפו מטוויטר, כמו אנדרו ארנהיימר מהדיילי סטורמר ואלי מוזלי, מארגן תהלוכת הנאצים בשארלוטסוויל, בה נהרגו אנשים.

שנאה ברשת שנאה ברשת שנאה ברשת

ולדיסקאס עצמה לא באמת אכפת: יש לה פורומים ייעודיים לניאו נאצים ודומיהם. החברה, שנרכשה בסוף 2017 בכ-90 מיליון דולר בידי Zeta Global, נהנית מחוק התקשורת האמריקאי - שמסיר אחריות ממפעילי שירותים מקוונים לתוכן שנאה. מבחינת דיסקאס, היא רק במה; מי שעומד עליה ומדבר הוא שאחראי לדבריו. היא רק מספקת לדוברים מעטה אנונימיות, כדי שימשיכו לעלות ולדבר.

כשפנו ארגוני זכויות מיעוטים לדיסקאס וביקשו הסברים, קיבלו זיגזג של תגובות שנע בין "אנחנו מאמינים בחופש הביטוי" ל"אנחנו נעבוד על זה" ולבסוף דממה; ההנהלה פשוט לא רוצה לדבר על כך. החברה לא רוצה לייצר שום רעש שלילי, שום דבר שיצמצם את הרצון של הלקוחות להשתמש בפלטפורמה שלה. כנראה שהמצב לא ישתנה בקרוב; בבית הלבן יושב נשיא שגילה סימפטיה לימין הקיצוני (חלק מהותי מבסיס המצביעים שלו), וגם לקיצונים שבקיצונים יש לובי אפקטיבי בוושינגטון. הפיתרון היחיד הוא לדווח, לדווח בלי סוף על כל מקרה כזה אליו נחשפתם - כדי שבעלי האתרים יבינו שיש בעייה שעליהם לפתור ויפעילו לחץ על דיסקאס בעצמם.  

קוראת וקוראת, אבל כמה היא לומדת?

למידה עמוקה היא היכולת שעומדת בבסיסן של מערכות AI רבות: ביצוע פעולה, ניתוח התוצאות שלה - ואז ביצוע משופר וכן הלאה. כל עוד מציגים לתוכנה יותר סיטואציות, אתגרים ומכשולים שתצליח לעבור, כך היא תלמד ותשתפר עוד ועוד. אבל האם ישנו גבול? האם כלי למידה עמוקה משתלמים להפעלה? יותר ויותר ראיות מצביעות על תשובה שלילית לשתי השאלות.

בעבר התפייטו חוקרים ומומחים והקבילו את מהפכת הבינה המלאכותית למהפכת רשתות החשמל. עם הזמן דעכה התלהבותם, כשהתברר שלבנות מערכת למידה עמוקה זה ממש יקר. בנוסף, היא לא מלמדת את עצמה: צריך לבנות לה תוכנית לימודים נכונה - שכן אם זו לא הוגדרה כהלכה, תתקבל תוכנה שלמדה את הדבר הלא נכון ומשקיעים שתוהים למה בזבזת כך את הכסף שלהם.

התוכנה משחקת, אבל בשלב מסוים כבר אין ערך ללמידה, צילום: Photo Elsoar התוכנה משחקת, אבל בשלב מסוים כבר אין ערך ללמידה | צילום: Photo Elsoar התוכנה משחקת, אבל בשלב מסוים כבר אין ערך ללמידה, צילום: Photo Elsoar

עוד חלום שמתחילים להתעורר ממנו הוא הלמידה האינסופית: זה לא שאם ניתן לתוכנה לומדת עוד ועוד מידע היא תמשיך להשתפר בצורה ששקולה להיקף המידע שקיבלה. לפעמים כל המאמץ הזה פשוט לא משתלם; קחו למשל תוכנה שלמדה איך לנצח במשחק המחשב DOTA. היא הצריכה כמויות עצומות של מידע, אך בשלב מסוים כבר רוותה דעת - שכן התרחישים שהוזנו לה היו יותר ויותר נדירים בעת משחק מול גיימר אנושי. אין טעם בללמד אותה מיליארד מקרים, כשהסיכוי שתיתקל ברובם זעום - ושברור שהמקרה המיליארד ו-1 יכשיל אותה.

רואים את זה טוב בתחום הנהיגה האוטונומית, בו ללמידה העמוקה תפקיד מפתח: למשל, מלמדים את המכונית לזהות תמרור ביום. ואז בלילה. ואז בלילה גשום. ואז מקווים שהתוכנה לא תתבלבל תוך כדי נסיעה. כי כשזה קורה, חברות ביטוח תולשות שיערות: הרכב האוטונומי של אובר דרס למוות רוכבת אופניים השנה, משום שלקח לו זמן להחליט מה הוא רואה והאם צריך לבלום, לפנות או להאיץ. וזה אפילו לא היה המקרה המיליארד ו-1, כי אם תרחיש סביר ביותר בו נתקל כל נהג אנושי.

אז קל לראות מדוע גם האוטופיסטים החלו להתייחס ללמידה עמוקה כאל אבולוציה ולא רבולוציה. קחו למשל את אנדרו מור, מגדולי מומחי ה-AI בעולם, שאמר השבוע שחוקרים כמעט ויתרו לגמרי על בניית בינה מלאכותית שתהיה אנושית לחלוטין, ועתה מתמקדת התעשייה בלשייף את פתרונות המדף שברשותה.

הקמ"ן האוטומטי

נישאר בזירת ה-AI, ונדבר על דבר שתוכנה לומדת דווקא יכולה לעשות היטב: זיהוי היערכות למלחמה גרעינית. לפי דיווח של רויטרס, ארה"ב מגבירה את מאמציה לפיתוח כלי בינה מלאכותית שיתפקדו כקציני מודיעין: הם יפענחו תצלומי אוויר, יעברו על דו"חות של סוכנים, יקראו יומני אירועים ויחפשו אינדיקציות להפעלה גרעינית מתקרבת.

במובנים רבים, הרבה יותר קל לתוכנת AI לזהות הכנות למלחמה מאשר לזהות הולכי רגל כשהן שולטות במכונית: האדם הבודד הוא בלתי צפוי, יצירתי, לא החלטי. ארגונים צבאיים, לעומתו, מסורבלים וצפויים; בראייה מודיעינית, יש לצבאות מעט מאוד דרכי פעולה אפשריות. האתגר הוא לזהות אם נקטו בצעד א', ב' או ג'.

איך עוצרים את הפצצה לפני שהיא יוצאת לדרך? איך עוצרים את הפצצה לפני שהיא יוצאת לדרך? איך עוצרים את הפצצה לפני שהיא יוצאת לדרך?

והכנת תשתיות למתקפה גרעינית היא דבר ברור למדי. קחו למשל את צפון קוריאה: האם תוגברו צירים שמובילים לבסיסי טילים ידועים? האם בוטלו חופשות? תצלומי לוויין מראים משגרי טילים נוסעים לעמדות שלהם? סיורי מטוסי קרב הוגברו? קים ג'ונג און ירד למחתרת? פריטי המידע הללו יופיעו דרך מקורות שונים, ברמות שונות. ותוכנה חכמה יכולה לעבור על כולם ולהרים דגל אדום. ואז, להציג את החומר לאדם.

מלחמה אטומית בעידן ה-AI: האם ג'וני ינצח את המחשב? כיצד יכולות תוכנות ביטחון לאומי לגרום בטעות למלחמות גרעיניות ומי יעצור אותן ניצן סדן, 7 תגובותלכתבה המלאה

כן, הגורם האנושי הוא חיוני במעגל הזה: התוכנה לא יכולה להבין, למשל, את הרגישויות שבדיפלומטיה או בתרגילי כוח בינלאומיים. אין לה יכולת להעריך את הסבירות שתתבצע מכה גרעינית משום שזה לא משהו שאפשר לכמת, לא באמת. כשקיבל המודיעין הישראלי מידע מקדים על מתקפה ערבית משולבת ב-1973, התעלמו ממנה הקצינים - אך תוכנה לא היתה עושה דברים אחרת. הסיבה היא שבעוד בינה מלאכותית יכולה לגבש מידע מודיעיני שמורכב מעובדות, ממה שראתה שקרה - אינה יכולה לגבש תמונה של מה שיקרה, מה שלפעמים תלוי במצב רוחו של שליט המדינה היריבה. זו הסיבה שקוראים לזה "הערכת מודיעין".

חוק באמצע כיכר השוק

לחברת Valve יש מקום של כבוד בהיכל התהילה של הגיימינג. היא פיתחה את משחקי Half Life את Team Fortress ואת סדרת Portal - כולם מהפכניים. והיא שמפעילה את Steam, חנות משחקי המחשב הכי גדולה ברשת, שמכניסה לה הון עתק. לסטים יש עשרות מיליוני משתמשים וקהילות פעילות מאוד. ומסתבר שכל המשתמשים הללו היו חשופים לגניבת מידע מצד האקרים בעשר השנים האחרונות - בגלל חור אבטחה שסטים לא ראתה.

סטים היא כיכר השוק של הגיימרים, במשמעות שמזכירה את ימי הביניים: זה המקום אליו מגיעים כדי להתעדכן, לשוחח עם אחרים, ועל הדרך גם לקנות דברים. פרויקטים של משחקים חדשים נולדו בסטים, תחרויות התארגנו בה, ומותגים גדולים הפכו לכאלה בזכות הצלחתם בחנות - בראשם PUBG.

עתה מסתבר שכבר עשר שנים שכל המידע שהועבר בחנות היה זמין להאקרים יודעי סוד, וכך גם הגישה למחשבים של המשתמשים; סטים מתבססת על שירות מקוון, אך גם על תוכנת סנכרון מורכבת שמותקנת על כל מחשב. לדברי טום קורט, מומחה האבטחה שחשף את הליקוי, לא קשה לסתום את החור - אך כנראה ש-Valve פשוט לא חשבה שהיא צריכה לתקן אותו. בשנה שעברה היא שמה לב אליו, אך סברה שעדכון אבטחה מסוג מסוים יפתור את הליקוי - מה שלא קרה. במשך חודשים ארוכים המשיכה החברה בשלה, כשפרצת האבטחה ממשיכה לקרוא לגנבים. רק באפריל שעבר, בעקבות פניות של מומחי אבטחה והחשש מפני רגולציות כ-GDPR, סתמה Valve את החור. מה אפשר לעשות עכשיו? להתקין מחדש את תוכנת סטים, להחליף סיסמאות ולקוות שהחברה למדה לקח ולא תתעלם שוב מליקויי אבטחה. נעדכן כשיקחו אותה לבית המשפט.

תגיות