אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
מה הקשר בין רוברט אופנהיימר, סם אלטמן ודובי פרנסס? בישראל רודפים אחרי העתיד, בזמן שמפתחי ה-AI קוראים לרגולציה על עצמם מדוע מפתחי ה-AI קוראים לרגולציה על עצמם? | shutterstock

מה הקשר בין רוברט אופנהיימר, סם אלטמן ודובי פרנסס? בישראל רודפים אחרי העתיד, בזמן שמפתחי ה-AI קוראים לרגולציה על עצמם

מעטים הרגעים בתולדות האנושות אותם אפשר להגדיר בתור נקודת מפנה קריטית, משבשת, שיכולה להשפיע על עתיד המין האנושי לטוב ולרע. על פי כל הסימנים, ההתפתחות האחרונה של טכנולוגיית ה-AI, ביחוד ה-AI הרגנרטיבי, היא נקודה שכזו. מצד אחד, אומר המשקיע הישראלי דובי פרנסס, ישראל במצב חירום וחייבת להכשיר 100 אלף מהנדסי AI בשנה בכל מחיר. מצד שני, סם אלטמן, מנכ"ל ומייסד Open AI, החברה שמאחורי ChatGPT, קורא לרגולטורים להגביל את השימוש בטכנולוגיה שהוא עצמו מפתח. מהם השיקולים המוסריים בפיקוח על טכנולוגיה? ומה הקשר של רוברט אופנהיימר, אביה מולידה של פצצת האטום, למצב הנוכחי?

29.06.2023, 11:43 | בשיתוף קבוצת ארליך

קשה מאוד לעקוב אחרי קצב ההתפתחויות המואץ בתחום הכלים מבוססי ה-AI. נראה שבשנה האחרונה הפך ה-AI מטכנולוגיה עתידית ליודעי דבר, לכלי נגיש עבור כל אחד ואחת מאיתנו. כלים כמו ChatGPT ו-Dall-E של Bard OpenAI, של גוגל ועוד (ועוד), עומדים להשפיע על העתיד של שוק העבודה ושל המין האנושי כולו בשנים הקרובות וכנראה לעולמי עד.

על הרקע הזינוק המטאורי של הענף, נוצר דיון מוסרי-רגולטורי בכל הנוגע לשימוש בכלי AI. איך רותמים את הכוח של ה-AI לטובת האנושות ולא לרעתה? כיצד מגינים על האנושות וכיצד מכינים את ישראל לעתיד?

המדענים שמאחורי ה-AI קוראים לפיקוח על הטכנולוגיות שלהם, shutterstock המדענים שמאחורי ה-AI קוראים לפיקוח על הטכנולוגיות שלהם | shutterstock המדענים שמאחורי ה-AI קוראים לפיקוח על הטכנולוגיות שלהם, shutterstock

ישראל משתרכת מאחור - כך נוכל להפוך למעצמת AI ולהמשיך את מסורת הסטארטאפ ניישן

כאשר מביטים אל העתיד, ניתן להניח בביטחון כי ה-AI יחולל את המהפכה הבאה של שוק העבודה. המנוע של הכלכלה העתידית צפוי להיות מהנדסי ה-AI אשר יפתחו טכנולוגיות מבוססות-AI לטובת האנושות. עם זאת, אחרי עשרות שנים של חדשנות והובלה של ישראל בכל הנוגע להייטק וחדשנות, נראה שהמדינה שלנו נמצאת מאחור בכל הנוגע ל-AI.

בראיון ל'תכנית חיסכון' בערוץ 12, אמר דובי פרנסס, בעלי קרן ההשקעות Group 11 ואחד המשקיעים הידועים בישראל, כי הוא מגדיר את המצב של ישראל בתור 'מצב חירום' מבחינת הצורך להתקדם לעידן הבינה המלאכותית. בין היתר, אמר פרנסס כי "אם אנחנו לא נערכים לקלוט את הבינה המלאכותית ולהיות מעצמת בינה מלאכותית, מובילים ולא מובלים, נאבד את עצמנו במרוץ החימוש הזה. היום מרוץ החימוש הוא מרוץ חינוך, כמה שיותר מהנדסים לטובת ה-AI 100 אלף מהנדסים ב-3 השנים הקרובות".

פרנסס הודה כי מדובר במשימה מאוד קשה, "אלא אם הממשלה, האקדמיה והמגזר העסקי ישתפו פעולה בעניין", לדבריו.

על רקע הירידות בהשקעות הזרות בהייטק, פרננס אמר כי יש למלא את החוסר בהשקעה מבפנים. "אנחנו צריכים להחזיר את ההשקעה כדי לסובב את גלגלי הקטר שמניע את כלכלת ישראל. הדרך לעשות זאת - על המשקיעים המוסדיים הישראלים להיכנס מתחת לאלונקה, לחזור ולהשקיע בהון סיכון, בהייטק הישראלי. מנהלי קרנות הון סיכון צריכים למצוא את הדרך להפוך את ההשקעה בישראל לאטרקטיבית יותר בכל הנוגע לדמי ניהול, והממשלה צריכה למצוא דרך לספק ערבות כזו או אחרת" למשקיעים המוסדיים. לדבריו, חסרים 10 מיליארד דולר בשלוש השנים הקרובות רק כדי לשמר את המומנטום.

פרנסס הדגיש בראיון כי "יש בישראל את המוחות הטובים ביותר בתחום. איליה סוצקובר, שכתב את המודל הבסיסי של OpenAI, ונועם שזיר, אחד המדענים החשובים בעולם שניסוח את ה'אני מאמין' של התחום - מה שמראה על הפוטנציאל העצום של ישראל".

המדענים שמאחורי ה-AI קוראים לפיקוח על הטכנולוגיות שלהם

סם אלטמן, מנכ"ל OpenAI, אמר בהופעתו בדיון בסנאט האמריקאי על ההשלכות והסכנות מפיתוחי בינה מלאכותית במאי האחרון, כי "אם הטכנולוגיה הזו משתבשת, היא ממש יכולה להשתבש". אלטמן הציע לגבש סוכנות ממשלתית אמריקאית אשר תהיה אחראית על רישוי לחברות המבקשות לפתח בינה מלאכותית עוצמתית. למעשה, אלטמן ביקש מהממשל האמריקאי להחיל מגבלות על הטכנולוגיה שהוא עצמו מפתח ומקדם.

אלטמן הגיע לאחרונה גם לביקור בישראל, יחד עם המדען הראשי של OpenAI, איליה סוצקובר, הישראלי לשעבר. במהלך כנס באוניברסיטת תל אביב, אמר אלטמן כי "צריך לאזן בין ההבטחה העצומה הגלומה ב-AI לבין הסיכונים הרציניים המשמעותיים הכרוכים בה". אלטמן הוסיף ואמר כי "תצטרך להיות רגולציה על התחום כדי שלא תתפתח סופר-אינטליגנציה לא מרוסנת ולא מפוקחת. העולם לא צריך לחשוב שזה לא יקרה, אלא לזכור שנצטרך להתמודד עם זה כבר בעשור הקרוב". בהתאם, אלטמן קרא להקמת ארגון גלובלי, אשר ישתף פעולה עם חברות מחזית הטכנולוגיה, לפיקוח על פיתוח הבינה המלאכותית ויעניק אישורי תקינות למערכות שעלולות להיות מסוכנות. "כפי שאנחנו עושים עם פיתוח נשק גרעיני", אמר אלטמן.

ד"ר גל ארליך, ראש קבוצת ארליך, באדיבות ארליך ד"ר גל ארליך, ראש קבוצת ארליך | באדיבות ארליך ד"ר גל ארליך, ראש קבוצת ארליך, באדיבות ארליך

"לטכנולוגיה ולמדע אין תכונות מוסריות - השאלה היא איך האנשים משתמשים בהם"

ד"ר גל ארליך, ראש קבוצת ארליך, החברה המובילה בישראל בתחום הקניין הרוחני, אומר כי "הגישה התיאולוגית שלי באשר למדע, טכנולוגיה, מוסר ורגולציה היא קוהרנטית, ברורה ולא השתנתה מעולם: לטכנולוגיה ולמדע אין תכונות מוסריות - השאלה היא איך האנשים משתמשים בהם". לכן, אומר ארליך, "הרגולציה לא צריכה להיות על פיתוח טכנולוגיה, אלא על שימוש בטכנולוגיה".

לראייה, אומר ארליך, "אטום הוא טכנולוגיה נהדרת, כל עוד מדובר על פתרון לייצור אנרגיה ירוקה. מצד שני, אפשר לפתח ופיתחו באמצעותה פצצה נוראית. פייסבוק היא פלטפורמה מקסימה לשמירה על קשר עם חברים, כל עוד לא משתמשים בה לניצחון בבחירות באמצעות מידע כוזב".

משום שמדובר בהתפתחות בסדר גודל של פיתוח פצצת אטום ונקודה סינגולרית משבשת בתולדות המין האנושי, "מוטב ליישם רגולציה מייד ולא לחכות אפילו לא לרגע. אי אפשר לנסות לבנות אותה בדיעבד, כמו במקרה של פייסבוק", אומר ארליך. "על הרגולציה להגדיר למי מותר, איך מותר להשתמש ב-AI, איך מבצעים אבטחת איכות, איך בודקים את איכות התוכן וגם לפקח על מהות השימוש עצמו".

בתור דוגמה, ארליך אומר כי "אפשר לשאול את ה-AI איך לעשות הפיכה משטרית – וזה מסוכן מאוד. בתחום הגרעין, אפשר לראות את המגבלות בצורה ברורה - אי אפשר לבנות פצצת אטום, על פי התקנות הבינלאומיות, אך אפשר לבנות כור גרעיני לייצר אנרגיה".

את הקריאה של אלטמן לפיקוח על השימוש ב-AI, אפשר להשוות לתגובה של רוברט אופנהיימר, מוביל פרויקט מנהטן, אשר הזהיר מפיתוח נשק גרעיני וקידם פיקוח בינלאומי של שימוש באנרגיה גרעינית. הוא הזהיר מכך ששימוש בנשק שכזה עשוי להוביל להשלכות הרסניות ובסופו של דבר קרא למגבלות על השימוש שלו. בנאום שנשא ב-1946, אמר אופנהיימר כי "יש לפקח ולהגביל את היכולת האטומית, אחרת היא תהפוך לנשק נורא ולעריצות שהעולם מעולם לא ראה". הוא סבר כי יש צורך בגוף מפקח בינלאומי למניעת ההשפעות הקטסטרופליות של נשק גרעיני ולטובת קידום שימוש באנרגיה גרעינית למטרות שלום.

"מעטים המקרים בהיסטוריה בהם שהמדען המפתח מתריע לגבי השימוש בטכנולוגיה שלו עצמו"

בכל הנוגע לאלטמן ו-OpenAI, ארליך אומר כי "מעטים מקרים כאלו בהיסטוריה בהם המדען המפתח מתריע לגבי השימוש בטכנולוגיה שלו עצמו. אומר שהוא פיתח משהו מסוכן מידי וקורא לדאוג כי לא ישתמשו בטכנולוגיה לרעה". לדבריו, "המצב הנוכחי רק מדגיש את הגישה הבסיסית שלי לגבי טכנולוגיה ורגולציה - מוסר יש רק לאנשים ולא לטכנולוגיה. אלטמן עצמו קורא להגבלה ופיקוח על האנשים, על פי אמות מידה מוסריות גלובליות. יפה שעה אחת קודם, לפני שיהיה מאוחר מידי".


תגיות