אתר זה עושה שימוש בעוגיות על מנת להבטיח לך את חוויית הגלישה הטובה ביותר.
כיצד הבינה המלאכותית היוצרת, Generative AI, משפיעה על אבטחת מידע? יוני אלון | צילום: יח"צ

כיצד הבינה המלאכותית היוצרת, Generative AI, משפיעה על אבטחת מידע?

פריחת הבינה המלאכותית ככלל והבינה המלאכותית היוצרת בפרט משכללת את עבודת התוקפים ומציבה את עברייני הסייבר בעמדה נוחה יותר לבצע תקיפות מוצלחות. אולם, כמו בכל אתגר ומשבר, ניתן למצוא לא מעט הזדמנויות, "בסוף אני רוצה להראות לתוקף שלא משתלם לו לתקוף חברה שאני מגן עליה ויש לנו הצלחה אדירה בזה", אומר יוני אלון, VP Cortex research בחברת הסייבר 'פאלו אלטו נטוורקס', "הבינה המלאכותית תגדיל את ענף הסייבר"

14.08.2023, 08:32 | ניסן שטראוכלר, בשיתוף duns 100

תחום הבינה המלאכותית הוא אחד מתחומי העיסוק המרכזיים בעולם ההייטק בעת הנוכחית, אם לא המרכזי שבהם. יש המגדירים את תחום הבינה המלאכותית ככזה שישפיע על האנושות במידה רבה יותר מהשפעתו של הטלפון הנייד. כבר עתה נעשה שימוש בבינה מלאכותית באמצעים טכנולוגיים רבים ובמגוון תחומים, אולם מדובר בשימוש בוסרי ושולי ביחס לעתיד בו צפוי שימוש בבינה מלאכותית ברוב המוחלט של המוצרים האלקטרוניים ותוכנות המחשב, כאשר הבינה המלאכותית צפויה להיות מתקדמת, יעילה ומתוחכמת בהרבה מזו שנעשה בה שימוש כיום.

ככל שתחום הבינה המלאכותית מתפתח, בולט השימוש בבינה המלאכותית היוצרת (Generative AI) שהיא סוג של למידת מכונה (ML) המאפשרת למערכות לייצר תוכן חדש, כגון תמונות, טקסט ומוזיקה. הבינה המלאכותית היוצרת מסתמכת על מידע רב ותהליכי לימוד מכונה הנעשים בצורה יעילה, מהירה, וכזו השואפת לדיוק רב, והיתרונות האדירים שבה – אשר אל חלקם כבר נחשפנו בצורות שונות - מייצרים גם לא מעט סיכונים, כל שכן כשמדובר על אבטחת מידע, "אנחנו מבינים את הסיכונים של הבינה המלאכותית, ובמקביל, רואים גם את ההזדמנויות הרבות אשר נוצרות ככל שהטכנולוגיה מתפתחת ומתקדמת", אומר יוני אלון, VP Cortex research בחברת הסייבר 'פאלו אלטו נטוורקס', "אנחנו כבר משלבים בינה מלאכותית יוצרת בחלק מהמוצרים שלנו כמענה יזום לאיומים המתפתחים כתוצאה משימוש והטמעת בינה מלאכותית במערכות רבות ומהשימוש בה שהופך לנפוץ, גם בקרב משתמשי קצה. באבטחת מידע יש אתגר שעיקרו להשיג הרבה מידע ולהבין אותו במהירות – ככל שאתה יודע לנתח מידע בצורה מהירה ומדויקת יותר, היכולת שלך להגיב היא הרבה יותר טובה ויעילה. הבינה המלאכותית עוזרת לנו להפריד את התפל מהעיקר, והשילוב של הבינה המלאכותית היוצרת במוצרים שלנו מסייע לנו לייצר לוגיקות טובות ונכונות יותר מהמידע הרב שאנחנו אוספים".


יוני אלון, צילום: יח"צ יוני אלון | צילום: יח"צ יוני אלון, צילום: יח"צ


ההבנה כי עולם הסייבר יאלץ להתמודד עם ניצול לרעה של בינה מלאכותית יוצרת גרמה לחברת פאלו אלטו נטוורקס להקדים תרופה למכה ולעמוד בראש החץ של חברות הסייבר העולמיות בכל הקשור לשילוב מוצרי בינה מלאכותית במוצרי ההגנה של החברה, ולייצור תכניות הגנה ומוכנות גבוהה להתקפות זדוניות בהן מתבצע שימוש בבינה מלאכותית יוצרת. "חברת 'פאלו אלטו נטוורקס' עוסקת בבינה מלאכותית מזה שנים רבות, כולל בבינה מלאכותית יוצרת. הבינה המלאכותית היוצרת משפרת את היכולות של תוקפים מסוימים בגזרת תקיפות הדיוג (פישינג), DLP וגניבת מידע. הבינה המלאכותית היוצרת מאפשרת 'לדלג' על מחסום השפה ולהנגיש מתקפות דיוג (פישינג) מתוחכמות יותר, וגם מסייעת לכתוב קוד זדוני ללא מאמץ וידע מיוחד, מאחר והמידע כבר נמצא ברשת. בקשה פשוטה ב ChatGPT תעניק לתוקף את כל מה שהוא צריך כדי לפתח נוזקות ולכתוב קוד זדוני אף ללא ידע מקדים", מסביר יוני אלון. "כל זה יוביל לכך שנראה יותר תקיפות יחד עם שינוי טקטיקות מצד התוקפים כאשר הרמה שתידרש לתקיפה משמעותית תרד. לדוגמה: אתה יכול לבקש ממודל AI או ChatGPT לעקוף תוכנת אנטי וירוס שחסמה אותך – סוג של גישה יריבית (adverserial learning). בסוף יש מודלים מבוססי AI שרבים אחד נגד השני וכל אחד מהם צריך ללמוד אחד מהשני כדי להתפתח".

האיומים המרכזיים לצד ההזדמנויות

יוני אלון עובד בחברת 'פאלו אלטו נטוורקס' מזה כ 6.5 שנים ומשמש כ-VP Cortex research. הוא הצטרף אליה כחלק מרכישת חברת LightCyber בה עבד עד למועד רכישתה. 'פאלו אלטו נטוורקס' היא חברת אבטחת הסייבר הגדולה בעולם. החברה הוקמה ב-2005 בקליפורניה, ארה"ב, על ידי ניר צוק. לאורך השנים פאלו אלטו נטוורקס השקיעה יותר מ-1.5 מיליארד דולר ברכישת חברות סטארטאפ ישראליות, ורואה בישראל מוקד משמעותי מאוד לצמיחת החברה. אלון מנהל את ארגון המחקר של פלטפורמת קורטקס - קו מוצרים פורץ דרך הרותם יכולות של בינה מלאכותית (AI) כדי לזהות ולטפל בו זמנית במיליוני התראות סייבר, לזהות ולתעדף אירועים משמעותיים, לאסוף את כל המידע הרלוונטי ולהפוך את תהליך ניהול האירועים לאוטומטי. "ארגון המחקר שאני עומד בראשו אחראי על פיתוח הלוגיקה של המוצר שמטרתו להגן ולמנוע פריצות סייבר. אני אחראי לזהות איומים ולחסום אותם באספקטים שונים: לזהות חריגים בעולם המחשבים האישיים והשרתים, עולם הישויות ועולם הענן. בסוף יש אוסף של אירועים שקורים – אנחנו חוסמים חלק מהאיומים, מזהים את מה שאינו נחסם (מכיוון שלא ניתן לחסום אותם), ועוזרים ללקוח להתמודד עם האירועים השוטפים והייחודיים. אנחנו גם עוזרים לו לזקק את האירוע ולתעדף את הפעולות על מנת שיוכל להתמודד עם האיום בצורה הטובה ביותר. על חלק מהדברים אנחנו יודעים להגיב אוטומטית: זיהוי, חסימת האיום, ואז מייצרים תגובה אוטומטית ללקוח. ארגון המחקר הוא חלק מהותי מפיתוח מוצר אשר מסביר את הסיפור ללקוח, מסייע ומנחה אותו כיצד להתמודד עם מתקפת סייבר. כבר עתה אנחנו מזהים איומי בינה מלאכותית, וכאמור, משלבים בינה מלאכותית במוצרים שלנו כדי לתת מענה רחב יותר לאיומים".

מה הם לדעתך איומי הסייבר המרכזיים אשר נובעים בעת הזאת משימוש בבינה מלאכותית יוצרת?

"אין ספק שלתוקפים קל יותר לבצע סוגים מסוימים של תקיפות. הבינה המלאכותית היוצרת מנגישה את האפשרות לתקוף גם עבור אנשים שאין להם את הידע והניסיון בתקיפות. זה גם מייצר תקיפות מתוחכמות יותר מצד אנשים שבעבר יכלו לבצע תקיפות פשוטות ופחות יעילות. בנוסף, השימוש בבינה מלאכותית יוצרת תעורר סט חדש של בעיות הנוגעות לשימוש לרעה בטכנולוגיה, הגורמים למודלים מבוססי AI לעשות דברים שהם לא רוצים או שהם לא מיועדים לעשות. ניתן גם להטות את מודלי ה-AI באמצעות הטמעת דיסאינפורמציה, כלומר הכנסת לינק שלא קיים ולמלא אותו בתוכן. אנחנו נראה כאמור תקיפות דיוג (פישינג) ברמה גבוהה תוך שימוש בתמונות ובטקסט קוהרנטי ואמין יותר".

איך ניתן להתמודד עם עליית המדרגה הזאת?

"יש המון שכבות של הגנה שנועדו למנוע מתוקפים להתקדם. תוקף עם מספיק זמן, ניסיון ומוטיבציה יכול לעבור בין כל החורים של המודלים השונים כדי למצוא פרצה. בסוף אני רוצה להראות לתוקף שלא משתלם לו לתקוף חברה שאני מגן עליה ויש לנו הצלחה אדירה בזה. שהם יגידו, בוא נתקוף דגים ולא כריש. אנחנו יודעים לייאש את התוקפים ולנצח במשחקי היריבות האלה שלא נגמרים. אנחנו חברה שמגנה על לקוחותיה ואנחנו כל הזמן בוחנים את המודלים שלנו. מגנים צריכים כל הזמן להגן על הכל, בעוד התוקפים צריכים להצליח רק פעם אחת כדי לייצר נזק. אנחנו משתמשים בכל הטכנולוגיות כדי לבדוק את המערכות שלנו וכדי לשפר את ההגנה שלנו, ולהביא אותה למצב האופטימלי ולרמה הגבוהה ביותר שקיימת היום בעולם. כמובן שככל שמשקיעים יותר משאבים כך גם עלות ההגנה עולה".

"בנוגע לבינה המלאכותית הקלאסית והיוצרת, קיימת השאלה - האם באמצעות שימוש בבינה מלאכותית נוכל לתת תגובה טובה יותר? האם בינה מלאכותית יוצרת תוכל להתמודד טוב יותר מבינה מלאכותית קלאסית שכבר עובדת? זו שאלה שהתשובה עליה עשויה לזעזע את השווקים ואת המודלים הקלאסיים. נכון לעכשיו התשובה עליה היא "עוד לא". הידע שקיים בתוך בינה מלאכותית יוצרת הוא כמו של אדם ממוצע. אין בתוך המודלים האלה את הידע של חוקר אבטחה. זה ידע שחלקו אינטואיטיבי ומבוסס דאטה, שקשה לבינה מלאכותית יוצרת להבין אותו עד הסוף. לכן, ייקח זמן עד שהבינה המלאכותית היוצרת תוכל, אם בכלל, להגיע לרמה של תחכום מרשים ועליונות".

"הבינה המלאכותית היוצרת תייצר גם משרות נוספות בעולם הסייבר"

לדברי אלון, על אף החשש הרווח כי הבינה המלאכותית היוצרת תחליף עובדי סייבר ותגרום לפיטורים גם בקרב אנשי סייבר, דווקא התפתחות הבינה המלאכותית תייצר לא מעט משרות נוספות בתחומים מסוימים בעולם הסייבר. "כדי לנצל את היכולות של הבינה המלאכותית צריך אנשים שמבינים אבטחת מידע, ויודעים למשל איך תוקפים עובדים בחברות. במקביל, צריך אנשים שמבינים בינה מלאכותית ויודעים איך לתפעל אותן. השימוש באנשי אבטחת מידע ומדעני מידע יאפשר ייצור תובנות מהירות וייעול של עבודת ההגנה של מערכות ותשתיות".

כלומר לדעתך אנחנו לא עומדים בפני גל פיטורין של אנשי סייבר שיוחלפו בבינה המלאכותית?

"מקצוע ה-Data Science לא יעלם ואף יגדל. הרי אין מקום לטעויות בארגון שצורך אבטחת מידע. לא יכול להיות שיש לנו מודל שבטעות מחליט לחסום אלמנט חיוני בעבודת בית חולים. כדי להפעיל מודל שמאפשר להביא אפס טעויות ללקוחות, צריך מישהו שיודע להיות עם היד על הדופק, לארגן את המידע ולבדוק מקרי קצה בצורה חכמה.

מקצוע חוקר אבטחת סייבר גם לא יעלם ובפועל קיים מחסור בחוקרי אבטחת סייבר איכותיים. הצורך במומחה תוכן שראה את המקרים וייצר את הידע – כיוון שהידע אינו קיים בצורה פומבית לכל דורש - ימשיך להיות קיים.

הבינה המלאכותית תוכל לסייע בתחומים ספציפיים, כמו למשל בדיוג (פישינג). אבל האם זה יהיה נכון לכל בעיה? לדעתי התשובה בעולם האבטחה והסייבר ההגנתי היא פשוט "לא". כבר עכשיו יש המון בעיות בעולם האבטחה שאינן טריוויאליות לבינה מלאכותית יוצרת. לדוגמה זיהוי של קוד זדוני – זה לא עניין טקסטואלי קריא – אז צריך שמומחי אבטחת מידע ודאטה סאיינס ידעו ללמד את הבינה המלאכותית היוצרת כל פעם מחדש את מה שהיא צריכה לעשות, מאחר שמי שכותב את הקוד הזדוני יחדש אותו פעם אחר פעם כדי לאתגר את הבינה המלאכותית. גם היום אנחנו רואים איך התוקפים משנים התנהגות בעקבות התגובה שלנו. זה מרוץ חתול ועכבר – יכול להיות שהבינה המלאכותית תעשה את הדברים לקלים יותר, אבל אני לא רואה את הענף קטן, אלא גדל. יכול להיות שהדאטה סאיינס יעבוד טוב יותר עם לקוחות ספציפיים וייתן שירות ומענה ספציפי באופן מיטבי ומשופר באמצעות הבינה המלאכותית, אבל בסופו של דבר, גם אם ייעלמו תפקידים מסוימים בעולם הסייבר, יהיו עוד תפקידי מעטפת שיתמכו בפיתוחים ויהיה עוד מקום לעובדים"

בהנחה שכאמור, יהיו תפקידים בהם הבינה המלאכותית יכולה להחליף בני אדם בעולמות הסייבר: האם אפשרי שנגיע למצב בו הבינה המלאכותית משולבת כ'טייס אוטומטי' ומביאה תוצרים ללא טעויות, בזמן קצר, ומייתרת התערבות של בני אדם?

"אין מצב. זה יכול להיות כל כך טוב שלא תאמין שמודל ה-AI טועה. אבל בסוף מדובר על מודל סטטיסטי ושום דבר לא מתנהג ככה בחיים האמיתיים. זה לא יגיע למצב של 100% ללא טעויות וללא צורך בהשגחה אנושית. גם אם יפותח מודל שיגיע ל 99.999% הצלחה, הוא לעולם לא יגיע לשלמות. נכון, זה הבדל לכאורה זניח, אבל פילוסופית זה לא אפשרי להגיע למודל שיודע לייצר 100% של תוכנה שעובדת ללא טעויות"

השימוש בבינה מלאכותית הוא יחסית חדש, איך אתם מוודאים שאין כשלים בתפעול הטכנולוגי של הבינה המלאכותית?

"אנחנו מבקרים את המערכות ומנטרים את המודלים שלנו בכל רגע נתון, ויש לנו מדדי התנהגות הבוחנים שאין שינוי כלשהוא בפעילות המודלים. אנחנו מבצעים ללא הרף גם בקרות איכות, וברגע שאנו מאתרים התנהלות לא רצויה, אנחנו עושים אימון מחדש ומוציאים מודל מעודכן שמתמודד עם הבעיה שעולה. באופן כללי אנחנו כל הזמן מוציאים מודלים חדשים כדי למנוע תקיפות מוצלחות ומריצים כל הזמן את המודלים הקיימים כדי להיות בכל עת עם יד על הדופק. אנחנו מאמינים במערכות שלנו אבל מודעים לכך שהצד התוקף לא נח לרגע. לכן, אנחנו מפזרים סנסורים ובודקים באופן רציף שהמערכות עובדות. גם לוגיקה שנכתבה על ידי אדם יכולה להפוך ללא רלוונטית בגלל שינויים שמתבצעים בשטח, כמו למשל על ידי חברות שמבצעות עדכון תוכנה, שינוי בהתנהגות המשתמשים, תוכנות חדשות או תקיפות חדשות. דבר שמצריך בחינה מתמשכת של המודלים כדי לוודא שהלקוחות שלנו מוגנים כל הזמן".

אחד החששות המוכרים הוא שהבינה המלאכותית תגלה עצמאות ותפעל נגד החברה שמשתמשת בה, או נגד החברות שנעזרות בה. עד כמה החשש מוחשי?

"זה אפשרי, אבל אני לא מאמין שזה חשש מציאותי. הבינה המלאכותית מוטמעת במודלים שאנחנו שולטים בפרמטרים שלהם. הדברים ברורים – בהינתן מידע X יוצא מידע Y. כמובן שאם חברה מסוימת בוחרת לחבר מודל למידע קריטי או מערכת חיצונית שיכולה לבצע פעולות משמעותיות מוטל עליה גם לתכנן הגנה שלא מבוססת AI ולייצר "מעקות בטיחות". יש צורך לפתח מנגנוני הגנה שלא משנה מה המודל יבקש לעשות – ניתן יהיה לעצור את הפעילות שלה בדרך ולוודא זאת ביד אדם או קוד דטרמיניסטי. בגדול, בקיצון זה אפשרי – אבל לא סביר שיקרה בגלל עקרונות פיתוח תוכנה סבירים".

ראיון עם יוני אלון מחברת 'פאלו אלטו נטוורקס'

d&b – לדעת להחליט


תגיות