אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.

מצטערים, התוכנה קבעה שאת יותר מדי אישה בשביל לעבוד באמזון

27 תגובות לכתיבת תגובה לכתיבת תגובה

26.
איך יודעים שמדובר בפייק ניוז
באנגלית אין התייחסות לגבר או אישה בתואר הפועל ולכן לא יכול להיות "נשיאת הליגה" כי זה יכול להיות גם גבר וגם אישה. אותו הדבר עם המשפט המגוכך "תודה על פנייתך, אך בחרנו להמשיך עם מועמד אחר", כשמילת המפתח פה היא "מועמד". ואולי זו מועמדת?
עליתי עליכם | 11.10.18
23.
בשביל מה לשכור נשים? אין לכם מספיק באגים?
באמת צריך להוסיף גם מתח מיני במשרד? נו.... אני גזען, וגם חשוך, וגם השד יודע מה אבל אישה שמגיעה חצי ערומה למשרד (כי מותר לה. ברור) מפריעה לי לעבוד יותר ממזגן מקולקל מעניין מה אותה אישה היתה חושבת אם אני הייתי מגיע חצי ערום כל יום לעבודה אם זה העסק שלי - אין בו נשים. נקודה
משה הירוק | 10.10.18
21.
ההטיות של המגייסות משתקפות באלגוריתם הלמידה
אין כאן טעות בלמידה, אלא שיקוף של ההטיות שהובילו לגיוס המצבה הקיימת. גם פה בארץ אפשר להריץ את הלמידה ונגלה את האפליות השליליות 1. נשים 2. לא צברים 3. לא אשכנזים 4. לא גרים במרכז 5. לא בוגרי אוניברסיטה 6. לא 8200 7. לא דומה לי
מקווה לשינוי | 10.10.18
20.
דווקא נשמעת תוכנה חכמה הרבה יותר מכפי שמוצג
כנראה מדובר במערכת לומדת. כזאת שלא הוגדרו לה פרמטרים של התאמה מראש אלא היא נדרשה לזהות אותם. כנראה שסטטיסטית הסיכוי של אישה להיות פרודקטיבית בתפקידים מסוימים הוא נמוך יותר ולכן התוכנה סיננה אותם. לא מתוך שוביניזם תרבותי, אלא מתוך הבנה קרה של המציאות.
אלברט  | 10.10.18
19.
אמזון כמו גוגול וכמו אפל וכו
להלן שני משפטים מהכתבה שמרגישים לי לגמרי מוטים עד גיחוך: 1.)"וחברות בכל הגדלים סובלות ממאמצי אמזון לקטוף את העובדים שלהן" : לידיעתכם גוגול ופייסבוק ועוד חברות גדולות בודקות על חצי שנה עם עובדי אמזון אם הם היו רוצים לעזוב את אמזון ולעבור אליהן. 2.) כשמילת המפתח פה היא "מועמד": לא ידעתי שבאנגלית יש מילים שונות למילה 'מועמד' לעומת 'מועמדת'. כנראה שמי שכתב את הכתבה הזו לא יודע - יודעת אנגלית, ולכן ממציא- ממציאה הוכחות בהתאם ללימודי מגדר. הבעיה עם לימודי מגדר שהם מסתיימים, ואז צריך להתנהל יותר במדויק בחיים האמיתיים.
א | 10.10.18
14.
המציאות עומדת על רגליה ולא מתייפייפת
מזכיר אלגוריתמים שהריצו בגוגל ותייגו תמונה של שני שחורים כשתי גורילות ... ומיד היתה התנצלות רבתי והרגו את התוכנה...כל אחד שהיה מסתכל היה רואה אותו דבר... מה לעשות - למחשבים אין הטיה (ואלו שרוצים לטעון כי הבעיה היא בתכנות או במתכנתים, שימשיכו להתכחש למציאות)ץ
יניב | 10.10.18
11.
הארץ המובטחת של השוויון - עדיין רחוקה
למרות מחקרים המראים שנשים מתכנתות טוב כמו ואפילו יותר מגברים - עדיין הן סובלות אפליה נגדן רק מעצם העובדה שיודעים שמדובר באישה. מה שאני סקרנית לגביו זה למה לא מנטרלים את הרעשים הללו בשביל האלגוריתם? המחשב באמת לא צריך לדעת אם הוא בודק קורות חיים של גבר או אישה - צריך להכניס את הנתונים לפורמט נייטרלי ולתת לו לברור את המועמדים בלי לדעת שום פרט שמאפשר אפלייה (מין, מוצא, מגדר וכו'). במקרה של "ניהול ליגת שחמט לנשים" - אפשר להשמיט את המילה "נשים" בתיאור התפקיד. אני בטוחה שהאפלייה תיעלם - עדיין דברים כמו חופשות לידה יופיעו - אבל היא בהחלט תצומצם. רק חבל שאי אפשר לעשות טריק כזה כשמדובר בבן אדם שפוגש את המועמדים...
יסמין | 10.10.18
10.
כל AI מכל סוג שהוא הופך לגזען מצ'ואיסט בפחות מ 24 שעות.
למה ? כי מה שאנחנו מחשיבים נורמה חברתית המחשב רואה בתור הזייה לא קיימת. אישה חלשה יותר פיסית מגבר. לכן לא מתאימה אוטומטית למגוון רחב של עבודות שכוחו של הגבר תהיה עדיפה. זה לא PC אבל זה נכון. ול AI לא מעניין הרגשות שלנו וכל תרבות ה PC העלובה הזו.
ששש | 10.10.18
7.
נו ברור...
כמעט אין נשים מתכנתות. מתכנתים באופן כללי הם גברים שחושבים שנשים הן נחותות ביותר. לכן כל תוכנה שקיימת בעולם מחשיבה נשים כמשהו נחות, לא חשוב כמה חכמה התוכנה. כי התוכנה נבנתה על ידי גברים שעבורם זאת פשוט עובדה מוגמרת. וזה לא עומד להשתנות בעשורים הקרובים.
יהב | 10.10.18
תודה, קיבלנו את תגובתך ונשתדל לפרסמה, בכפוף לשיקולי המערכת