27. למידת מכונה אין ממש קשר לצבע העור של הצוות שמפתח. לא צריך סתם לייצר מלחמות מיותרות. יש מספיק. זה פשוט עניין של דאטה. יש דרכים לטפל בזה - אבל זה תמיד קשור לשכיחות ה"מוטה" בדאטה שעליו המערכת אומנה. נשים מצטלמות ומעלות לטוויטר יותר מגברים. יש הרבה יותר לבנים משחורים. וכדומה. יחסית לזה - הצליחו לא רע באיזון. מגיע להם שאפו. למידת מכונה ברוב המקרים יותר דומה למערכת האינסטקטיבית של האדם, והיא מוטה בהגדרה. | 23.05.21 (ל"ת)
26. עדיף שטוויטר יתרכזו בניקוי הפלטפורמה שלהם מאנטישמים ואנטי ישראלים וגילוי גזענות אחרים. זה בזיון שהחשבון של חמינאי עדיין פעיל למורת ההסתה שלו נגד ישראל זה ביזיון שיש משתמשים שקוראים להשמדת ישראל והחשבון שלהם פעיל זה ביזיון שיש משתמשים שמשווים יהודים לעכברים והחשבון שלהם לא נסגר איש | 22.05.21 (ל"ת)
25. אז עכשיו זה שאין מתכנתים שחורים זה גזענות גם? 22 שנה אני בארה״ב ועובד בהייטק -- לא ראיתי בחיי פה יותר מחמישה מתכנתים שחורים בזמן הזה. אז בואו ונאשים את החיים בגזענות. דניאל | 20.05.21 (ל"ת)
24. רואים שהכתב לא מבין כלום ב"למידת מכונה" אלגוריתם אינו גזעני. יש סיבות ברורת לכך שזה קרה, ואפשר היה לתקן זאת, במקום להילחץ ולהתחנף. ניב | 20.05.21 (ל"ת)
23. מעניין מאד למה לא הפריעה ההטיה לטובת נשים לעומת גברים... על מספר אחוזים בודד שלא מתאים לאידאולוגיה הפרוגרסיבית עושים רעש וצלצולים, מזעזע. נועה | 20.05.21 (ל"ת)
22. מדהים! הפרוגרסיה נגד הפיזיקה מכל משטח כהה יוחזר פחות אור מאשר ממשטח בהיר. האור המוחזר הוא המידע שנצרב בתמונה. לכן כאשר "מעבדים" את התמונה בתמונה של חפץ כהה יהיה פחות מידע ולכן הסיכוי לטעויות יהיה גדול יותר. זוהי עובדה מדעית פשוטה וברורה. זה נכון לבני אדם, לכלבים, לחתולים, ולשולחנות. אלגוריתמאי | 20.05.21 (ל"ת)
21. שטויות במיץ כל מי שמבין משהו באלגוריתמים של deep learning יודע שאין דבר כזה אלגוריתם גזעני. האלגוריתם לומד מה data set שמכניסים לו. אם במקרה יש שם יותר data על לבנים מאשר על שחורים האלגוריתם "יעדיף" לבנים על שחורים כך שהאלגוריתם עצמו אין לו שום העדפה. הנתונים יכולים להיות מוטים לקבוצות באוכלוסיה בלי שום כוונת זדון כי פשוט קיימים יותר נתונים על קבוצות מסויימות ובשביל "לתקן" את זה צריך לאזן את הנתונים באופן מלאכותי, דבר שיכול להשפיע על כמות הנתונים שניתן להשתמש בהם בשביל ללמד את האלגוריתם, להוריד את הביצועים של האלגוריתם באופן כללי וגם יכול לעלות הרבה מאוד כסף (כי מדובר בכמויות עצומות של מידע). טל | 20.05.21 (ל"ת)
20. זה מיכוון שבינה מלאכותית איננה בינה (עדיין) מן הסתם המתכנתים השתמשו במאגר תמונות מסויים על מנת ללמד את האלגוריתם. הטייה במאגר עשויה להביא להטייה בתוצאות. ארנונימוס | 20.05.21 (ל"ת)
19. אז האלגוריתם מפלה גברים יותר מאשר שחורים 8% העדפה לנשים, לעומת 4% העדפה ללבנים. מאיר | 20.05.21 (ל"ת)
18. איזה קשקוש, אלגוריתם זה אלגוריתם, עובד שחור לא ישנה אותו זה שהחורים לא רוצים לעבוד בעבודות קשות שדורשות מאמץ מחשבתי זו בעיה שלהם, כנ״ל נשים. הם לא היו עושים שום דבר מיוחד והאלגוריתם גם לא עושה שום דבר מיוחד, ההטיות זניחות לחלוטין. וגם למה באמת אין | 20.05.21 (ל"ת)
17. הנושא הזה לא חדש וYann LeCun ואחרים כבר התייחסו אליו יש הטייה שהמקור שלה הוא בדאטא שהמודלים האלה מתאמנים עליהם. https://twitter.com/ylecun/status/1274782757907030016?lang=he זה דיון שקיים כבר לא מעט זמן בקהילה הזו. אור | 20.05.21 (ל"ת)
15. הכותרת האמיתית היא: האלגוריתם של טוויטר מעדיף נשים על גברים אבל זה לא מספיק פוליטקלי קורקט וקורבני, אז הכותרת היא שהוא מפלה שחורים - למרות שאין מובהקות סטטיסטית לכך (בניגוד לאפליה נגד גברים, שהיא מובהקת) משה1 | 20.05.21 (ל"ת)
14. בני אדם מייצרים אלגוריתמים. לא מפתיע שהפרוגרסיבים, עם האובסס האובססיה שלהם למתג כל אחד לפי הגזע והצבע שלו, בסוף יידבקו בגזענות. גל | 20.05.21 (ל"ת)
12. שום דבר לא מוזר, להיפך. תראו את צבע העור של המנכ"ל והמפתחים. אנשים לבנים באופן טבעי מחשיבים לבנים אחרים בתור אנשים, ואנשים עם עור בצבע שונה... משהו אחר. הם לא גזענים מרצון, זה בטבע האדם. מתכנת | 20.05.21 (ל"ת)
11. מה שמראה שהלימוד הלא מודע שלנו לסיווג קבוצות הוא מייצג את האמת ולא מוטה מרקע חינוכי או היסטורי אז נשמע שצריך לשנות את הגישה לאפליות המתקנות ולא לאלגוריתם הממוחשב ברק | 20.05.21 (ל"ת)
10. החריגות הסטטיסטיות המדוברות הן ממש קטנות וזניחות דווקא נראה שעשו עבודה טובה מאוד במניעת הטייה. אם לא היו מתאמצים היתה מתגלית הטייה חריפה משמעותית. מהומה על לא מאומה | 20.05.21 (ל"ת)
9. בעיה מוכרת ולא מפתיעה בכל למידת מכונה בדרך כלל "אלגוריתם" כזה לומד מסט של נתונים שקיבל מראש מתוייגים כך שאם התוצאה מראה שהוא מוטה שזה פשו אומר שהנתונים שקיבל מוטים שזה לא מפליא כי לפעמי םגם את הנתונים אוספים באופן אוטומאטי והמציאות מוטה כמובן ולכם הם משקפים את המציאות. אותו דבר קרה עם "אלגוריתמים" לסינון קורות חיים וכן הלאה. התוצאה משקפת את המציאות. גם אם יתקנו אותו זה כמובן לא ישנה את המציאות רק ישים מסיכה יפה מעל מה שמעדיפים לא לראות. באופן טבעי אנשים מעדיפים אנשים יפים\סימטריים, בשביל לפתור את זה כנראה יאלצו להנדס את הגנום האנושי להתנהג אחרת. דני | 20.05.21 (ל"ת)
8. החברה בוחרת להוריד כי היא עושה בשכל... החברה יודעת בוודאות מה גרם לזה, זה לא תוכניתן שוגה, אלא שיקוף של מה אנשים רוצים לראות - וההטיה של העולם היא גזענית (אבל קצת...) ומעדיפה בחלק מהמקרים לחתוך חלקים מסויימים כי אלו תופסים את העין. אבל במקום לעורר מהומה בעולם, "אתם גזענים, זה משקף אתכם" הם בחרו לא לצאת עם זה פומבית ועשו בשכל... חבר | 20.05.21 (ל"ת)
6. אבל אי אפשר לחקור זאת זה העניין בכל הלמידת תוכנה. אי אפשר לחוקר למה זה קרה. אפשר למצוא קשרים סטטיסטיים. אבל לא לדעת מה הקשר שגרם לזה. זה בעיה ידועה חוקר | 20.05.21 (ל"ת)
5. הצעה לתיקון האלגוריתם: לעשות לתמונה נגטיב ואז להריץ ככה האלגוריתם יעדיף שחורים על לבנים וזה יהיה העדפה מתקנת. א | 21.05.21 (ל"ת)
3. הוא לא גזעני/סקסיסט הבדיקה מאוד פשוטה. קחו תמונה של בן אנוש בלי תלות מגדרית או אתנית מחייך ולידו שימו תמונה של בן אנוש אחר בלי תלות מגדרית או אתנית שלא מחייך ואתם תראו שהאלגוריתם יבחר בפרצוף המחייך. לא משנה אם זה גבר, אישה, יהודי, ערבי, נוצרי, שחור, לבן, פשוט לא משנה. הוא מעדיף חיוכים. אתם מוזמנים לבדוק אותי רוני שמבין | 20.05.21 (ל"ת)
1. שומדבר לא טוב לך? אתה מבין כמה זמן ומאמץ צריך להשקיע כדי לאתר שיש בעיה באלגוריתם? וכמה זמן ומאמץ צריך להשקיע כדי לתקן אותו? בשיקולי עלות-תועלת, הפעולה הכי לגיטימית היא לזרוק אותו לפח. כשאתה אופה עוגה והיא יוצאת לא משהו, אתה שולח אותה למעבדה כדי לנתח רכיבים וכמויות? אם היה מדובר באלגוריתם שהוא בליבת הפעילות שלהם, היו משקיעים זמן בלתקן אותו. אבל זה לא המצב אז תמצא לך משהו אחר להתלונן עליו סתם1 | 20.05.21 (ל"ת)
טוויטר מודה: האלגוריתם כשל ונוטה לגזענות
27 תגובות לכתיבת תגובה