בינה מלאכותית: טכניקות התחמקות והגנת סייבר

(של אורציו דנילו רוסו)
19/07/21

זה מנוגד לרעיון הרציונליות, המהירות, האפקטיביות והיעילות שיצרנו ממחשבים, אבל המציאות היא שמערכות בינה מלאכותית (AI) מציגות תכונה הדומה מאוד לתפיסה האנלוגית האנושית של נָאִיבִיוּת. ולכן הם חשופים להונאה ומניפולציה.

קצת כמו שזה קורה בקרב בני אדם, שם לעיתים קרובות אנו רואים הונאות שמתבצעות על ידי ניצול עדין של הבורות או התמימות של הקורבן, כך שזה קורה גם עבור AI במהלך תהליך הלמידה האוטומטי, הידוע יותר במונח למידת מכונה (ML): היכולת ללמוד ביצוע משימות מודיעין אנושיות טיפוסיות, כגון סיווג תמונה או זיהוי דיבור.

כדי לתקן בעיה זו, מה שמכונה למידת מכונה יריבה (AML), המגזר הלומד כיצד להפוך את שלב הלמידה האוטומטי לבטוח יותר על מנת להפוך את המערכת לחזקה יותר ביחס לניסיונות הטעיה.

עבור הדיוט, למידת מכונה כולל מערך טכניקות המבוסס על גישות סטטיסטיות או טכניקות אופטימיזציה מתמטיות, המאפשרות לזהות דפוסים ודמיון בין נתונים: למשל בגישות של למידה מפוקחת, למידת מחשב מפוקחת על ידי מומחה המלמד את המכונה אילו החלטות לקבל או אילו פעולות לעשות בנוכחות אירוע מסוים; באלה של למידה ללא פיקוחבמקום זאת, מוסבר למכונה כיצד לזהות אלמנטים של משותף או גיוון בין המידע, אך לאחר מכן נותר לה לעבוד על הנתונים בלבד; או, סוף סוף, ב לימוד עם חיזוקים מלמדים אותם להכיר את טובת ההחלטות המתקבלות על ידי קבלת משוב חיובי, ובכך להבטיח למידה מחזקת.

עילות הבחירה להתקפת סייבר על אינטליגנציות מלאכותיות הן בעצם שלוש. קודם כל תחום פיזי המיוצג על ידי חיישנים ומפעילים המאפשרים דיאלוג עם הסביבה, אלה שמבחינתנו בני האדם הם חמשת החושים, מכיוון שהם עלולים להיפגע וליצור תקלות. חשבו למשל על העובדה שחבלה במיקרופון מפריעה למערכת החכמה בהאזנה לפקודה קולית; או שעל ידי חבלה בממסר מונע מודיעין בקרה תעשייתי לכבות את תנור היציקה כאשר מגיעים לטמפרטורה קריטית. ואז יש התקפות שמנצלות את חולשות המנגנונים של ייצוג נתונים דיגיטלי, למשל על ידי החלפת מידע נכון בנתונים מזוהמים. ולבסוף יש תקיפות אלגוריתמי למידה, להזריק למחשבים - למשל - שיטת לימוד שעברה מניפולציה למטרות נסתרות או, לעומת זאת, להבין כיצד היא לומדת: אחרי הכל, זה בדיוק מתחיל מתוך הידיעה של "איך" המכונה מורה לעצמה, זה יכול להחרים את הלמידה שלהם או לחזות את התנהגותם.

ההתקפה יכולה להתרחש על פי טכניקות שונות: או שהיא נעה בין שיטות אימון זדוניות, לבין פעולות אינטראקציה חמקמקות או הליכי חקר מתנהלים.

הקטגוריה הראשונה כוללת את כל אותן טקטיקות של רעלת איתו, באופן ישיר או עקיף, הידע הנרכש או ההיגיון הלמידי מזוהמים. במקרים אלה, האקרים חייבים לקבל גישה חשאית לבינה מלאכותית בכדי לזייף את הנתונים השמורים בזיכרון או לשנות את אלגוריתם הלמידה. ההשלכות של התקפות אלה יכולות להיות חמורות מאוד ולהשפיע באופן מוחשי על העולם הפיזי, כמו מקרים של אימונים זדוניים שתוארו לאחרונה על ידי האקדמאים מאוניברסיטת קליארי במחקר על מכוניות בנהיגה עצמית בערים חכמות: מכוניות אלה יכול ללא נהג, לא עצר בצומת אם בעקבות התקפה של מניפולציה של תוויות מהנתונים הנוגעים לזיהוי האות "עצור", האינטליגנציה הובילה לשקול את הרעיון המנוגד לעצירת הרכב.

לעומת זאת, בטכניקות חקר עדינות, אינטראקציות מתבצעות עם בינה מלאכותית שמטרתה להבין את ההיגיון של הטמעה קוגניטיבית. דוגמה אופיינית היא ה-התקפת אורקל, כאשר סדרת שאלות מנומקת נשלחת לתוכנת הלמידה ועל ידי בחינת דפוס התשובות היחסיות, מובנה מודל לחיזוי התנהגות עתידית. הטקטיקות מבוסס שיפוע במקום זאת הם דוגמאות ברורות לטכניקת האינטראקציה החמקמקה בה עוסקת האינטליגנציה - למשל - עם אותות חזותיים המציגים הפרעות שאינן ניתנות לזיהוי על ידי התפיסה האנושית, אך מספיקות בכדי לגרום לתוצאות פרדוקסליות באלגוריתם הלמידה המונעות או מפריעות - מתחמקות במדויק - יכולת לסווג תמונות. במילים אחרות, טכניקות אלה נועדו לזהות את המספר הקטן ביותר של שינויים הדרושים לבניית תמונה המבלבלת את יכולות קבלת ההחלטות של המערכת.

המחקר כבר העלה אסטרטגיות הגנה מתאימות. לדוגמא, כדי לנטרל אימונים מוסתרים וזדוניים, פותחו אלגוריתמי הצפנה למחיצות זיכרון המכילות את הרעיונות שנלמדו או את ההיגיון הלמידי; כדי להגן מפני אינטראקציות חמקמקות, תוכננו אמצעי נגד שנוטים להפחית את הרגישות להפרעות - מעין חומר הרדמה דיגיטלי המפחית את הרגישות לחפצים מטעים, הידוע יותר בסביבות אבטחה ברשת עם המונח מיסוך הדרגתי - או דוגמאות לאותות מטרידים מוזרקים למאגר האימונים, כך שהם מזוהים כזדוניים ולכן מושלכים (מה שמכונה טכניקה של אימונים יריביים); ולבסוף כדי להגן על האינטליגנציה המלאכותית מפני הטקטיקות של חקר ערמומי, מלמדים אותה לזהות פעולות של ניטור, בדיקה ושליטה של ​​יריבים ברשת.

בקיצור, המחקר עושה צעדים עצומים להפוך מערכות חכמות לבטוחות יותר ועמידות יותר, תוך שמירה על התלות בשליטה אנושית: זוהי סוגיה מהותית, במיוחד לאינטליגנציות מלאכותיות בעלות השפעה קריטית, כמו אלה הכפופות לנשק ול פריטים לשימוש כפול המשמשים לפיתוח i מערכות נשק אוטונומיות קטלניות (LAWS), מערכות נשק אינטליגנטיות כביכול, שהשימוש וההשפעות שלהן חייבים תמיד ובכל מקרה להיחשף לאחריות אנושית ברורה וקובעת, הן מדינה והן פרט.

מידע נוסף:

https://smartcities.ieee.org/newsletter/june-2021/explainable-machine-le...

https://gradientscience.org/intro_adversarial/

https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8269-draft.pdf