פרשנות | עד כמה בינה מלאכותית תשנה את עולם הסייבר?

בינה מלאכותית מקלה על עברייני הסייבר המחפשים אחר דרכים לבצע התקפות סייבר עם מקסימום תוצאה ומינימום מאמץ

פרשנות | עד כמה בינה מלאכותית תשנה את עולם הסייבר?

תמונה: טרנד מיקרו

בינה מלאכותית יוצרת (Generative AI) זכתה בפתח שנת 2023 לכותרות בכל אמצעי התקשורת ולאורך השנה זכתה לחשיפה בכנסים, כתבות ודיונים ככזו שתסייע לארגונים, אנשי קריאיטיב, מדענים, סטודנטים, מפתחים, וגם באופן בלתי נמנע לעברייני סייבר.  

הבינה המלאכותית מביאה איתה יכולות ומהירות אשר מסייעות להקל ולקצר תהליכים. לכן היא מקלה על עברייני הסייבר המחפשים אחר דרכים לבצע התקפות סייבר עם מקסימום תוצאה ומינימום מאמץ. 

כיצד בינה מלאכותית יוצרת משכללת את אסטרטגיות התקיפה

ראשית כדי להבין את השינוי שהביאה איתה הבינה המלאכותית צריך להכיר את אסטרטגיות התקיפה שהיו נהוגות עד היום: משלוח נוזקות, הודעות פישינג או מתקפות כופר למספר עצום של נמענים בתקווה לתפוס כמה משתמשים שיפלו בפח. 

באמצעות Generative AI עברייני הסייבר יכולים להשיג מודיעין על משתמשים ספציפיים ולתקוף אותם באופן  אישי – שיטה הכרוכה במאמץ גבוה, אך גם בשיעורי הצלחה גבוהים. 

הבינה המלאכותית מאפשרת לתוקפים לשלוח הודעות ממוקדות שנוצרו ע"י כלי ה- AI, נטולות שגיאות ומשכנעות, להמוני אנשים במספר שפות. 

יכולת זו כבר מסתעפת מעבר להודעות דוא"ל וטקסטים, וכוללת Deep Fake’' משכנע של אודיו ווידאו היוצרים איום בעל השפעה רחבה יותר. 

דמיינו שאתם מקבלים הודעת וואטסאפ קולית מן המנכ"ל שלכם בקולו המדוייק עם בקשה להעברת תשלום לחברה מסויימת. טכנולוגיה זו יכולה לסייע לבצע מניפולציות בשוק המניות, להוציא קמפיינים שיווקיים עם הונאה בצידם, לפזר דיסאינפורמציה בנושאים עסקיים או מדיניים, או לבצע התקפות הכפשה על דמויות ציבוריות. 

שימוש מדאיג מאוד ב- AI ממנו חוששות ארגונים עסקיים רבים וחברות אבטחת המידע הוא שימוש לחקר חולשות – איתור פרצות וחולשות בכלי אבטחה באמצעות שאילתות למערכות AI.   

חסמי הכניסה לטכניקות כאלה ירדו משמעותית עם עלייתם של ממשקים זמינים בסגנון אפליקצית HeyGen. 

פושעי סייבר ללא ידע בקידוד או בעלי מחשבים מיוחדים יכולים להפיק טקסטים, גרפיקה, אודיו ווידאו מותאמים אישית ברזולוציה גבוהה שאינם ניתנים לגילוי מבחינה אנושית.

שימוש בבינה מלאכותית לפשיעת סייבר

כאשר גרסאות ציבוריות של בינה מלאכותית יוצרת הגיעו לראשונה לשוק, מומחים חששו שפושעים ייצרו תוכנות זדוניות "בלתי ניתנות לעצירה". 

בהחלט יש לזה ביקוש, ונעשו ניסיונות, אבל עד כה נראה שקל יותר לומר מאשר לעשות. FraudGPT, שזכה לתשומת לב ב-2023, היה למעשה כלי הדגמה לפושעים שכלל רק חומרי קידום מכירות והדגמה - והכלי WormGPT שתפס כותרות לקראת סוף השנה נגנז תוך ימים ספורים בשל תשומת הלב התקשורתית שקיבל.

ככל שגניבת המידע גדלה, הולך ומתרחב השימוש בשירות חדש לגמרי Reconnaissance as a Service (ReconaaS) – תהליך של איסוף מידע אודות יעדים פוטנציאליים, חולשות ווקטורים של התקפה. 

תוקפים מסוימים ישתמשו בבינה מלאכותית כדי לחלץ מידע אישי שימושי מנתונים גנובים ולמכור אותו לפושעי סייבר אחרים לצורך התקפות אולטרה-ממוקדות.

פושעים מכוונים גם לאפליקציות AI עצמן. אפליקציות חטיפת מידע ופריצה הפכו לנושאים חמים בפורומים של פושעי סייבר. 

הניסיונות הראשונים לעשות זאת כללו שתילת הנחיות זדוניות למערכות AI כדי לגרום להן להתנהג בצורה לא נאותה, אך אלה הוכיחו את עצמן כפעולות שקל להתמודד איתן. 

איום נוסף - הבינה המלאכותית כבר האיצה את המירוץ לגילוי חולשות בתוכנות קוד פתוח על ידי כך שהיא מאפשרת להשוות קוד מקור של גרסאות תוכנה שונות ולמצוא לא רק נקודות תורפה שנחשפו, אלא גם כאלה שלא נחשפו.

אסטרטגיות הגנה מתפתחות כדי להתאים לאיומי דור הבינה המלאכותית

הגנה מפני איומים מסלימים אלה דורשת תגובת "כל הידיים על ההגה", המשלבת שיטות וכלי אבטחה שיפותחו לשם כך, בשילוב עם תרבות אבטחה ארגונית חזקה ושילוב טכניקות אבטחה בשלב פיתוח היישומים. 

מה שנדרש הוא שילוב של גישת zero trust ו-AI כדי לחזק את האבטחה. בגישה זו זהויות חייבות תמיד להיות מאומתות, ורק אנשים ומכונות נחוצים רשאים לגשת למידע רגיש או לתהליכים למטרות מוגדרות בזמנים ספציפיים. פעולה זו מגבילה את משטח התקיפה ומאטה את התוקפים.

רתימת בינה מלאכותית לטובה

בינה מלאכותית יוצרת יכולה לעזור לצוותי אבטחת סייבר לעבוד מהר יותר ולהיות פרודוקטיביים יותר על ידי מתן הסברים בשפה פשוטה של התראות, פענוח סקריפטים ופקודות, והפעלת שאילתות חיפוש מדויקות ויעילות. 

ה- AI פועל כ"מכפיל כוח" כאשר מגדירים תגובות אוטומטיות לתקריות. בינה מלאכותית יכולה לסייע בשיפור הגנות סייבר פרואקטיביות על ידי הפעלת סימולציות דינמיות, מותאמות אישית וספציפיות לתעשייה של פריצות ותקיפות. 

בעוד ש"צוות אדום" רשמי היה זמין בדרך כלל רק לארגונים הגדולים ביותר עם כיסים עמוקים, לבינה מלאכותית יש פוטנציאל להקל גם על ארגונים קטנים יותר על ביצוע מבדקי חדירה ותרגילי פריצה.

מכיוון שזה לא מציאותי לאסור אפליקציות AI על הסף, ארגונים צריכים לנהל אותן. ומפתחים, מצדם, צריכים לתעדף בטיחות ומניעת שימוש לרעה כשהם יוצרים יישומים.

מאת: שאנון מרפי, Global Security & Risk Strategist בטרנד מיקרו

img
פרשנות | כוח צבאי משמעותי של נאט״ו יכול להקטין הסתברות למלחמה גרעינית באירופה
דעה | אופציה צבאית ישראלית תוכל לרסן את איראן 
קבוצת SQLink רוכשת את ZIGIT הישראלית
קבוצת SQLink רוכשת את ZIGIT הישראלית