אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.

טוויטר מודה: האלגוריתם כשל ונוטה לגזענות

27 תגובות לכתיבת תגובה לכתיבת תגובה

27.
למידת מכונה
אין ממש קשר לצבע העור של הצוות שמפתח. לא צריך סתם לייצר מלחמות מיותרות. יש מספיק. זה פשוט עניין של דאטה. יש דרכים לטפל בזה - אבל זה תמיד קשור לשכיחות ה"מוטה" בדאטה שעליו המערכת אומנה. נשים מצטלמות ומעלות לטוויטר יותר מגברים. יש הרבה יותר לבנים משחורים. וכדומה. יחסית לזה - הצליחו לא רע באיזון. מגיע להם שאפו. למידת מכונה ברוב המקרים יותר דומה למערכת האינסטקטיבית של האדם, והיא מוטה בהגדרה.
 | 23.05.21
26.
עדיף שטוויטר יתרכזו בניקוי הפלטפורמה שלהם מאנטישמים
ואנטי ישראלים וגילוי גזענות אחרים. זה בזיון שהחשבון של חמינאי עדיין פעיל למורת ההסתה שלו נגד ישראל זה ביזיון שיש משתמשים שקוראים להשמדת ישראל והחשבון שלהם פעיל זה ביזיון שיש משתמשים שמשווים יהודים לעכברים והחשבון שלהם לא נסגר
איש | 22.05.21
22.
מדהים! הפרוגרסיה נגד הפיזיקה
מכל משטח כהה יוחזר פחות אור מאשר ממשטח בהיר. האור המוחזר הוא המידע שנצרב בתמונה. לכן כאשר "מעבדים" את התמונה בתמונה של חפץ כהה יהיה פחות מידע ולכן הסיכוי לטעויות יהיה גדול יותר. זוהי עובדה מדעית פשוטה וברורה. זה נכון לבני אדם, לכלבים, לחתולים, ולשולחנות.
אלגוריתמאי | 20.05.21
21.
שטויות במיץ
כל מי שמבין משהו באלגוריתמים של deep learning יודע שאין דבר כזה אלגוריתם גזעני. האלגוריתם לומד מה data set שמכניסים לו. אם במקרה יש שם יותר data על לבנים מאשר על שחורים האלגוריתם "יעדיף" לבנים על שחורים כך שהאלגוריתם עצמו אין לו שום העדפה. הנתונים יכולים להיות מוטים לקבוצות באוכלוסיה בלי שום כוונת זדון כי פשוט קיימים יותר נתונים על קבוצות מסויימות ובשביל "לתקן" את זה צריך לאזן את הנתונים באופן מלאכותי, דבר שיכול להשפיע על כמות הנתונים שניתן להשתמש בהם בשביל ללמד את האלגוריתם, להוריד את הביצועים של האלגוריתם באופן כללי וגם יכול לעלות הרבה מאוד כסף (כי מדובר בכמויות עצומות של מידע).
טל | 20.05.21
9.
בעיה מוכרת ולא מפתיעה בכל למידת מכונה
בדרך כלל "אלגוריתם" כזה לומד מסט של נתונים שקיבל מראש מתוייגים כך שאם התוצאה מראה שהוא מוטה שזה פשו אומר שהנתונים שקיבל מוטים שזה לא מפליא כי לפעמי םגם את הנתונים אוספים באופן אוטומאטי והמציאות מוטה כמובן ולכם הם משקפים את המציאות. אותו דבר קרה עם "אלגוריתמים" לסינון קורות חיים וכן הלאה. התוצאה משקפת את המציאות. גם אם יתקנו אותו זה כמובן לא ישנה את המציאות רק ישים מסיכה יפה מעל מה שמעדיפים לא לראות. באופן טבעי אנשים מעדיפים אנשים יפים\סימטריים, בשביל לפתור את זה כנראה יאלצו להנדס את הגנום האנושי להתנהג אחרת.
דני | 20.05.21
8.
החברה בוחרת להוריד כי היא עושה בשכל...
החברה יודעת בוודאות מה גרם לזה, זה לא תוכניתן שוגה, אלא שיקוף של מה אנשים רוצים לראות - וההטיה של העולם היא גזענית (אבל קצת...) ומעדיפה בחלק מהמקרים לחתוך חלקים מסויימים כי אלו תופסים את העין. אבל במקום לעורר מהומה בעולם, "אתם גזענים, זה משקף אתכם" הם בחרו לא לצאת עם זה פומבית ועשו בשכל...
חבר | 20.05.21
3.
הוא לא גזעני/סקסיסט
הבדיקה מאוד פשוטה. קחו תמונה של בן אנוש בלי תלות מגדרית או אתנית מחייך ולידו שימו תמונה של בן אנוש אחר בלי תלות מגדרית או אתנית שלא מחייך ואתם תראו שהאלגוריתם יבחר בפרצוף המחייך. לא משנה אם זה גבר, אישה, יהודי, ערבי, נוצרי, שחור, לבן, פשוט לא משנה. הוא מעדיף חיוכים. אתם מוזמנים לבדוק אותי
רוני שמבין | 20.05.21
1.
שומדבר לא טוב לך?
אתה מבין כמה זמן ומאמץ צריך להשקיע כדי לאתר שיש בעיה באלגוריתם? וכמה זמן ומאמץ צריך להשקיע כדי לתקן אותו? בשיקולי עלות-תועלת, הפעולה הכי לגיטימית היא לזרוק אותו לפח. כשאתה אופה עוגה והיא יוצאת לא משהו, אתה שולח אותה למעבדה כדי לנתח רכיבים וכמויות? אם היה מדובר באלגוריתם שהוא בליבת הפעילות שלהם, היו משקיעים זמן בלתקן אותו. אבל זה לא המצב אז תמצא לך משהו אחר להתלונן עליו
סתם1 | 20.05.21
תודה, קיבלנו את תגובתך ונשתדל לפרסמה, בכפוף לשיקולי המערכת