כיצד חוק הבינה המלאכותית יסדיר בינה מלאכותית באיחוד האירופי ואיזו השפעה תהיה לו

25/01/24

"כשהתוצאות מתפרסמות, עיניה של לי סדול גומרות דמעות. AlphaGo, אינטליגנציה מלאכותית (AI) שפותחה על ידי DeepMind של גוגל, השיגה זה עתה ניצחון 4-1 במשחק הגו. זהו מרץ 2016. שני עשורים קודם לכן, רב-אמן השחמט גארי קספרוב הפסיד למכונה Deep Blue, ועכשיו תוכנת מחשב ניצחה את אלופת העולם השמונה עשרה לי סדול במשחק מורכב שהאמינו ששיחקו רק על ידי בני אדם, תוך שימוש באינטואיציה ובחשיבה האסטרטגית שלהם. המחשב ניצח לא על ידי ציות לכללים שניתנו לו על ידי מתכנתים, אלא על ידי למידת מכונה המבוססת על מיליוני משחקי Go בעבר ומשחק נגד עצמו. במקרה זה, מתכנתים מכינים את מערכי הנתונים ויוצרים את האלגוריתמים, אך הם אינם יכולים לדעת אילו מהלכים התוכנית תציע. בינה מלאכותית לומדת מעצמה. אחרי סדרה של מהלכים יוצאי דופן ומפתיעים, לי נאלץ להתפטר בעצמו".

קטע זה מתוך הספר "AI Ethics" מאת מארק קוקלברג, פילוסוף וטכנולוג בלגי, מזכיר בצורה מפורשת וסוגסטיבית את המפגש בין האדם לגבולותיו. לאחר מספר מסוים של ניצחונות שהשיגה Sedol, AlphaGo מנצחת. זו לא הפעם הראשונה שזה קורה (הדוגמה שהובאה היא של Deep Blue) ובכל זאת, אחרי סדרה של מהלכים יוצאי דופן ומפתיעים, AlphaGo עושה את מה שהוא נועד עבורו: זו הפעם הראשונה שזה קורה ב בדרך זו.

וכאן אנו תופסים את הסינתזה של תופעת הבינה המלאכותית (AI): זו הפעם הראשונה שזה קורה ככה.

כל כלי התקשורת דיברו על המירוץ לעבר בינה מלאכותית, במיוחד לאחר ה"פיצוץ" ChatGPT. דיברנו על זה פעמים רבות גם בהקשר של Online Defense, והדגשנו את הדחיפה האבולוציונית חסרת התקדים שהפתרונות הללו נתקלים בה בהיסטוריה שלהם.

אולם ישנה תופעה מקבילה, מסקנת ומחוברת לראשונה, המסתכנת שלא יבחינו בה. זו של הסטנדרטיזציה של המערכות הללו.

הסדרת בינה מלאכותית אינה אתגר פשוט, ומבלי להיכנס לעניינים הטכניים (וגם לא התסיסות החקיקתיות הרבות שמתקיימות במדינות אסיה וארה"ב בנושא) אנו יכולים לומר שהאיחוד האירופי, לאחר שנים של עבודה קודמת, הכניס בדצמבר 2023, גרסה חצי-סופית של מה שייצג, לאחר השלמת הדיונים הטכניים והליך האישור הקהילתי, את התקנה האירופית הראשונה בנושא בינה מלאכותית: ה-AI ACT.

מה זה?

"חוק AI" מייצג את אחד המסמכים החקיקתיים הראשונים והמובנים ביותר ברמה עולמית שמטרתם להסדיר את השימוש בבינה מלאכותית ולהפחית את הסיכונים הפוטנציאליים הנלווים. הנוסח הסופי של החוק עדיין יצטרך להיות מפותח על ידי אנשי המקצוע המוסמכים וניתן לתיקון סופי. צפוי שאם הכל יתנהל ללא מכשולים, כניסתה לתוקף תתבצע בשנתיים הקרובות.

הרגולציה מתמקדת בעיקר בשמירה על זכויות וחירויות הפרט, ומבססת את החובה לחברות המפתחות פתרונות בינה מלאכותית להוכיח שהמוצרים שלהן ותהליך הפיתוח שלהם אינם מסכנים אנשים או מתפשרים על שלמותם. חוק רגולטורי זה מכסה מספר תחומי יישום של בינה מלאכותית, אך חלק מהנקודות העיקריות כוללות הגבלות על מערכות זיהוי ביומטריות וחובת שקיפות לגבי המערכות הטכנולוגיות המשמשות עבור chatbot כמו ChatGPT.

מרכיב בסיסי של הרגולציה הוא מערכת סיווג הסיכונים, שכבר אומצה בתקנות דומות אחרות (אחת מעל לכל ה-GDPR), המזהה מערכות בינה מלאכותית מסוימות עם מאפיינים מסוימים כ"סיכון גבוה", הכפיפה אותן לפעולות ציות קפדניות. הוראה זו תהווה אתגר מרכזי עבור חברות ומוסדות העוסקים ביצירה, הפעלה או שימוש במערכות מסוג זה.

הדוגמאות למערכות בסיכון גבוה הכלולות בתקנה כוללות את אלה המשמשות במגזרים מכריעים כמו שירותי בריאות, תחבורה, משפט ובטיחות הציבור. עבור מערכות כאלה יידרשו סטנדרטים גבוהים מבחינת אבטחה, שקיפות ואמינות. בפרט, עבור מערכות בסיכון גבוה, חוק הבינה המלאכותית קובע מספר דרישות מחמירות, כולל:

  • הערכת סיכונים ותאימות: יש לתכנן ולפתח מערכות בינה מלאכותית תוך התחשבות בהערכת סיכונים יסודית. זה כולל יישום אמצעים לניהול ולמזעור סיכונים אלו.
  • שקיפות ופרטי משתמש: מערכות AI צריכות להיות שקופות. יש ליידע את המשתמשים כאשר הם מקיימים אינטראקציה עם מערכת בינה מלאכותית, ולתת להם מידע מספיק על אופן הפעולה של המערכת ומקבלת החלטות.
  • פיקוח אנושי: חוק הבינה המלאכותית מדגיש את החשיבות של פיקוח אנושי על מערכות בינה מלאכותית, במיוחד עבור מערכות בסיכון גבוה. יכולות להיות לכך השלכות משמעותיות על השימוש הצבאי ב-AI, כאשר קבלת החלטות אוטומטיות במצבים קריטיים עשויה להיות מוגבלת או לדרוש פיקוח אנושי מפורש.
  • איכות מידע: חוק הבינה המלאכותית דורש שהנתונים המשמשים את מערכות הבינה המלאכותית ינוהלו כדי להבטיח את האיכות הגבוהה ביותר, להפחית את הסיכון להטיה ולהבטיח שההחלטות המתקבלות מדויקות ואמינות.
  • בטיחות ויציבות: מערכות AI חייבות להיות בטוחות וחסונות מפני ניסיונות מניפולציה או שימוש לרעה (היבט קריטי במיוחד, בלשון המעטה, בהקשר הצבאי).

דרישה נוספת בעלת עניין מיוחד היא זו שהוצגה מנקודת מבט אתית: חוק הבינה המלאכותית דורש "הערכה אתית" אמיתית (Fundamental Rights Impact Assessment, FRIA) שתבוצע עבור מערכות בסיכון גבוה. כמו כן קיימות אינטראקציות רבות עם נושא האבטחה של עיבוד נתונים אישיים, אליהם מתייחס נוסח התקנה מספר פעמים בכל הנוגע לניתוח הסיכונים וההשפעות על האנשים הטבעיים המעורבים בהפעלת מערכות אלו ועל הסיכונים עבור הנתונים שלהם.

יתר על כן, יש כמה שיטות אסורות. לדוגמה, השימוש בבינה מלאכותית לניתוח נתונים ביומטריים רגישים, כמו זיהוי אנשים על סמך מאפיינים כמו נטייה מינית, מוצא אתני, דת או רעיונות פוליטיים, ייאסר. הוראה זו נועדה למנוע אפליה והתעללות. כמו כן, ייאסר שימוש חסר הבחנה בתמונות שצולמו מהאינטרנט או ממצלמות טלוויזיה במעגל סגור כדי להכשיר מערכות זיהוי פנים, על מנת להגן על פרטיות האנשים ולמנוע מעקב המוני.

סוכנויות אכיפת החוק יהיו מוסמכות להשתמש במערכות זיהוי ביומטריות (שעליהן התנהל קרב חשוב בתוך האיחוד האירופי, לאחר תיק Clearview) רק ב נסיבות חריגות, כגון איום במתקפת טרור קרובה או חיפוש אחר אנשים החשודים בפשעים חמורים או קורבנות של פשעים חמורים.

חוק הבינה המלאכותית אוסר על שימוש בבינה מלאכותית לצורך זיהוי רגשות של אנשים במקומות עבודה ובבתי ספר, על מנת לשמר את החופש הרגשי של אנשים. יתר על כן, הוא אוסר על תרגול של ציון חברתי, או שימוש בבינה מלאכותית כדי להקצות ציונים על סמך התנהגות או מאפיינים של אנשים, וכתוצאה מכך מגבלות או הענקות של זכויות אזרח. אמצעי זה נועד למנוע מניפולציה של התנהגות אנשים באופן מפורש או מרומז.

הרגולציה קובעת כי מערכות בינה מלאכותית בעלות השפעה גבוהה, עם יכולות מחשוב גבוהות כמו GPT-4 של OpenAI, חייבות להבטיח שקיפות בתהליך ההדרכה ולשתף את התיעוד הטכני של החומרים המשמשים לפני שהם יוצאים לשוק. מודלים אלו יידרשו להפוך את התכנים שהם יוצרים לזיהוי, על מנת למנוע הונאה ודיסאינפורמציה וכדי להגן על זכויות היוצרים של היצירות שנוצרו.

מבחינת סנקציות, חברות שלא יעמדו בכללים אלו עלולות להיות כפופות לקנסות של עד 7% מהמחזור העולמי שלהן.

מה שללא ספק מעניין מאוד הוא מה שצפוי בטקסט הנוכחי על השימושים של מערכות בינה מלאכותית בשדה הצבאי.

למעשה, נקבע במפורש בטקסט (סעיף 2, סעיף 3) שמבחינת ההשפעה על המגזר הצבאי, חוק ה-AI אינו חל ישירות על מערכות בינה מלאכותית שפותחו או נעשה בהן שימוש למטרות צבאיות. עם זאת, התקנים והתקנות שנקבעו בחוק הבינה המלאכותית יכולים להשפיע בעקיפין על האופן שבו מדינות חברות באיחוד האירופי וחברות הפועלות באירופה מפתחות ופורסים מערכות בינה מלאכותית עבור יישומים צבאיים. זה יכול לכלול היבטים כמו שקיפות, פיקוח אנושי ואבטחת מערכת. יתר על כן, ייתכן שחוק הבינה המלאכותית יוכל לשמש מודל לתקנות (או תקנים) עתידיים ספציפיים לצבא, הן ברמת האיחוד האירופי והן ברמה העולמית.

ההשתלבות הגוברת של בינה מלאכותית בהגנה מחייבת מסגרת רגולטורית המאזנת בין חדשנות לבין אחריות אתית וביטחון. שיתוף פעולה בין מדינות, מוסדות ותעשיות יהיה המפתח להבטחת השימוש הצבאי ב-AI מתפתח באחריות ובהתאם לעקרונות הבינלאומיים של המשפט ההומניטרי.

חוק הבינה המלאכותית יעבור מספר שלבי יישומים, שהמאסיבי שבהם צפוי באופן ריאלי למחצית השנייה של 2026. יש צורך להתכונן באופן משמעותי על תכנון המערכות שנמצאות כעת בפיתוח, על מנת לעצב בינה מלאכותית שתואמת עם הדרישות המוצעות על ידי האיחוד האירופי במובן זה.

אנדריאה פולידדו (עורכת דין ומומחית במשפטים וטכנולוגיות חדשות)

הערה: למאמר יש בהכרח נטייה אינפורמטיבית, ואינו מתעמק בסוגיות הרבות (והמורכבות) שעל הפרק ביחס לפיתוח ויישום חוק הבינה המלאכותית. לדיון מעמיק יותר בנושא, אנא כתוב לבשר: Puligheddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)