אם נתבונן בקפידה בכמה תופעות הקשורות לשימוש בטכנולוגיות דיגיטליות, נוכל להבחין שהחשיפה של מערכות IT (טכנולוגיית מידע) ו-OT (טכנולוגיה תפעולית) במרחב הקיברנטי צומחת ללא הרף ושהשימוש בבינה מלאכותית מחוברת יותר ויותר למערכות פיזיות. ממלא תפקיד מהותי בתהליכי בקרה בקרב מערכות המשתמשות בחיישנים ומפעילים.
60% מהחברות שמשתמשות בבינה מלאכותית בתחומים אלו מודים שהסיכונים הכרוכים בה בהחלט חשובים ומהקריטיים ביותר.
עם זאת, בינה מלאכותית פותחת את הדרך לא רק לסיכון של סוגים חדשים של התקפה אלא גם לאפשרויות הגנה חדשות ומשמעות הדבר היא שהפרדיגמות של הערכת סיכונים על מערכות קריטיות אלה בימינו צריך להיבדק.
דווקא כאן נכנס לפעולה פרויקט במימון האיחוד האירופי (תוכנית Horizon 2020 של הנציבות האירופית), בתקציב של כארבעה מיליון יורו: הפרויקט קינאיטיקה.
פרויקט KINAITICS - התקפות סייבר-קינטיות באמצעות בינה מלאכותית - נולד רשמית באוקטובר 2022 הודות לשיתוף הפעולה של שבעה שותפים מחמש מדינות אירופיות שונות, בין שלושת אלה הם איטלקים (Pluribus One, Fondazione Toscana G.Monasterio והנדסה) וארבעת האחרים אירופאים: Commissariat à l'Energie Atomique et aux Energies Alternatives (CEA), ה המרכז למחקר וטכנולוגיה Hellas (CERTH), ויקומטק ו קתדרלה אוניברסיטאית לובן.
הפרויקט הבינלאומי נועד לחקור את הזדמנויות התקיפה החדשות שמציעות הכנסת מערכות בקרה המבוססות על בינה מלאכותית ולחקור גישות הגנה חדשות להגברת החוסן והחוסן ולהגן עליהן מפני התקפות.
בדיוק במגזר זה משחק הבינה המלאכותית תפקיד חשוב על ידי קידום הבנה טובה יותר של אופי הסיכונים המתעוררים ואימוץ גישות אבטחה חדשניות.
זה נעשה באמצעות יצירת מסגרת משולבת, הערכת סיכונים פוטנציאליים והתפתחותם ולימוד ההיבטים המשפטיים, האתיים והקשורים לציות של חוקים ותקנות בינה מלאכותית כגון GDPR, הנחיית NIS2 וחוק AI.
אחד ההיבטים המרכזיים נוגע ל שְׁקִיפוּת. אלגוריתמי AI חייבים להיות מובנים כדי להימנע מהחלטות אטומות או בלתי מובנות, תופעה המכונה קופסא שחורה.
בהקשרים קריטיים, כמו טריאז' רפואי אוטומטי או בקרת תהליכים תעשייתיים, החלטות לא שקופות עלולות ליצור חוסר אמון או, גרוע מכך, לסכן חיי אדם.
יתר על כן, הטיה אלגוריתמי (כלומר ההשפעה של הטיות מרומזות או עיוותים בנתונים שמובילים להחלטות מוטות באופן שיטתי) מייצגת סיכון ממשי. אם נתוני ההדרכה אינם מייצגים או מכילים הטיה, החלטות המערכת עשויות להיות מפלות, לא הוגנות או בלתי הולמות. לדוגמה, מערכת אבטחה מבוססת בינה מלאכותית יכולה להעדיף או להעניש קטגוריות מסוימות של אנשים על סמך מאפיינים לא רלוונטיים, כגון מוצא אתני או מגדר.
מסגרת משולבת חדשה
מסגרת ההגנה שפותחה ב-KINAITICS קשורה קשר הדוק לשלך טווח סייבר, כלי שנוצר במיוחד כדי לחנך ולהכשיר כוח אדם באמצעות תרגילי סייבר וכדי לעזור לחוקרים לדמות התקפות אמיתיות. על ידי הטמעת אסטרטגיות הגנה עם כלי בינה מלאכותית, בתיאום על ידי עבודה אנושית, מגוון הסייבר מתמקד בפגיעויות דיגיטליות ופיזיות כאחד ופועל כמצע מבחן להתקפות מסוגים שונים, ומסייע בבדיקת יכולות הערכת אבטחה בזמן אמת.
מסגרת ההגנה, המחולקת לארבעה מודולים, כוללת:
- ניטור סוגים התנהגותי (התנהגות) של אנשים, מערכות בקרה תעשייתיות (ICS) ותוכנה;
- מערכת תומכת ההחלטות המסייעת להציע או ליישם אמצעי נגד כדי למתן את ההשפעות של אירוע סייבר;
- הצורה של הנדסה חברתית מבוסס על למידת מכונה (ML) ו עיבוד שפה טבעית (NLP), ולבסוף שימוש במנגנוני הגנה היברידיים למשתמשי AI.
השימוש ב-ML ובינה מלאכותית מביא יתרונות ביצועים משמעותיים אך גם סיכונים פוטנציאליים חדשים. פושעי סייבר יכולים למקד מערכות בינה מלאכותית באמצעות שיטות שונות, כגון הרעלת נתונים (כלומר הרעלת נתונים) במהלך הַדְרָכָה, מה שיוביל את AI לקבל החלטות גרועות, למעשה המורכבות הגוברת של AI מביאה איתה נקודות תורפה חדשות.
העיקריים שבהם הם הסיכון של התקפות על נתוני אימון שעלולות לפגוע ביכולת של AI לקבל החלטות מהימנות.
אבטחת מערכות אלו אינה עבודה פשוטה ודורשת הבנה עמוקה של הטכניקות בהן משתמשות התוקפים. שימוש במסגרות קיימות כמו אלו בתוך הפרויקט MITER ATT & CK e אטלס (Landscape Adversarial Threat for Artificial-Intelligence Systems) עוזר לך להבין טוב יותר, לזהות ולנהל סיכונים הקשורים לבינה מלאכותית, ומציע פתרונות מתעדכנים כל הזמן.
דווקא בהתייחסות ל-ATLAS אפשר לדמיין מקרי שימוש מציאותיים... בואו נדמיין למשל מפעל תעשייתי שבו חיישנים פגומים עלולים לגרום לתאונות, השימוש במסגרת KINAITICS יכול לעזור לנו לחזות חריגות, להציע התערבויות לפני שמתרחשות בעיות, זה זה המקרה של השימוש ב תאום דיגיטלי (תאום דיגיטלי) של מערכת המשמשת לעתים קרובות יותר ויותר למודל ולחזות את ההתנהגות האידיאלית שלה ולוודא שאין סטיות שעלולות לסכן את הפונקציונליות והבטיחות הפיזית של המערכת. השימוש ב תאומים דיגיטליים זה יתרון אבל בו בזמן מרחיב את אפשרויות ההתקפה: חשבו מה יכול לקרות אם פושע רשת יצליח לשנות את ההתנהגות או המודל של התאום הדיגיטלי, מה שמוביל מפעילים לשגיאות קטלניות תיאורטית.
איום נוסף שהולך וגדל הוא זה של רע בots, משמש למטרות שונות אך מעל הכל לאיסוף מידע אוטומטי. בוטים כאלה הופכים יותר ויותר מתוחכמים ובהתאם לחדש דו"ח אימפרווה כעת הם עושים שימוש אינטנסיבי במודלים של AI המאפשרים להם לחקות התנהגות אנושית כדי להימנע מגילוי. די לומר שבשנת 2023 ה 49,6% מכלל תעבורת האינטרנט נראה מיוצר על ידי בוטים רעים e בוטים טובים.
כלים כמו KINAITICS יכולים להיות שימושיים לשיפור יכולות הזיהוי בוטים רעים מה שמאפשר להבדיל בינם לבין "בוטים טובים" ומבני אדם הודות ליכולות ה-ML וה-AI שהוא מצויד בהן.
בסופו של דבר, האינטגרציה ההולכת וגוברת בין מערכות פיזיות לבינה מלאכותית פותחת נקודות מבט מעניינות חדשות אך גם נקודות תורפה חדשות. התקפות כמו ה הרעלת נתונים או טכניקות של היפוך דגם, המאפשרים לשחזר מידע רגיש החל ממודלים של AI, עלולים לאיים על בטיחות התהליך. יתר על כן, החיבור עם חיישנים ומפעילים חושף מערכות לסיכונים קינטיים, שבהם להתקפה דיגיטלית יכולות להיות השלכות פיזיות, כמו פגיעה במכונות או חבלה בתשתיות קריטיות.
הגישה של פרויקט KINAITICS, המבוססת על סימולציות אמיתיות ומסגרות אדפטיביות, מייצגת צעד קדימה בהפחתת הסיכונים המתעוררים הללו.
פרויקטים כמו KINAITICS לא רק משפרים את אבטחת המערכת, אלא מניחים את הבסיס לסטנדרטים עתידיים שינחו את השימוש האחראי והבטוח בבינה מלאכותית בעידן הקישוריות העולמית.