האם זה נכון שבקרוב יהיה לנו שופט רובוט?

(של אנריקה פריולו)
21 / 02 / 22

אדם ומכונה. שילוב שעד עכשיו התרגלנו אליו ושמפחיד בכל פעם שהוא מובע. הדילמה הבסיסית היא להבין באיזו מידה האדם חייב לתת מרחב תמרון למכונה.

אחד מתחומי הידע שבהם יש יותר דיון הוא ללא ספק זה של המשפט, בפרט של מה שנקרא החלטות שיפוטיות אוטומטיות.

זה נכון שבקרוב מאוד יהיה לנו שופט רובוט? כדי לענות, תחילה זהה למה הכוונה, באופן כללי, בחיזוי וחיזוי.

הם קיימים לפחות ארבעה מצבים בו החוק והמפעילים (משפטנים ומחוקקים) מודדים את עצמם עם ה"תחזית" או עם הצורך/היכולת לראות ולהעריך מראש מה יקרה בעתיד. בואו נראה אותם.

1) ההוראה הנורמטיבית. בלקסיקון המשפטנים מופיע פעמים רבות הביטוי "תחזית נורמטיבית" כדי להצביע על המצב המופשט שהמחוקק מדמיין ואל קיומו נקשרת מחדש ההשלכות העולות. בהקשרים מסוימים זה עולה בקנה אחד עם מה שמכונה "המקרה המופשט".

תפיסת החיזוי היא אפוא אינהרנטית לזו של הנורמה: משימתו של האחרונה היא להגדיר מראש מצב אפשרי בעתיד. כאשר אנו מפרשים משפט נורמטיבי אנו מובילים, מחד גיסא, לדמיין את הנסיבות העובדתיות שבהן ניתן ליישמו, ומאידך, לשאול את עצמנו מה הסיבה לאותה הוראה, תוך ניסיון לזהות את הסיבות שהניעו את המחוקק. לעשות או לא לעשות בחירות מסוימות.

2) הניבוי/החיזוי של תגובת מערכת המשפט: ודאות משפטית.

חיזוי התוצאה של מחלוקת ממוקמת בפרספקטיבה הקשורה למה שנאמר זה עתה.

המשפט מסמן את המעבר מה"הוראה הנורמטיבית" המופשטת לצדק המקרה הפרטני עליו חלה הוראה זו. זהו הרגע שבו המקרה הקונקרטי מותאם בצורה מושלמת למקרה המופשט על פי מודל סילוגיסטי של חשיבה. הרעיון של "זכות ניתנת לחישוב" נשען על האמונה כי התוצאה של כל מחלוקת חייבת להיות "ניתנת לחיזוי". בדיוק ההנחה הזו נותנת תוכן לאחד מעמודי התווך של הציוויליזציה המשפטית שלנו: זה של "וודאות משפטית". מערכת המשפט המחייבת ביחס לבעיה נתונה חייבת לספק תמיד את אותה תשובה. כי בטוח הוא רק מה שניתן לחזות. 

3) חיזוי השפעות הרגולציה.

בהנחה של הרגולטורים/המחוקקים (ושל המשפטנים המשתפים איתם פעולה) יש לזכור כי מזה שנים אחדות מושם דגש גדול יותר על הצורך "לחזות" את ההשפעות של כללים ותקנות: כללים חייבים להיות בעיה רק ​​אם בתום חקירה מספקת, בטוח סביר שיהיו להן ההשפעות הרצויות והצפויות.

לכן יש צורך להיות מסוגל באופן סביר "לחזות":

א) כיצד יגיבו המקורבים לכללים החדשים (האם ישמרו על ההתנהגויות הרצויות ו/או המוטלות או לא);

ב) אם ההשפעות שייצרו הכללים החדשים יובילו באמת להשגת היעדים הרצויים.

4) הניבוי/הניבוי של בינה מלאכותית.

הגבול החדש מיוצג על ידי יכולות הניבוי של בינה מלאכותית, גם אם מוטב לומר "מדעי הנתונים" ו "כריית מידע" מיושם על עולם המשפט ("ניתוח משפטי"). אם נניח למקרה הידוע של Loomis בארה"ב (שבו נראה כי לתוכנת COMPAS הוקצתה היכולת לחזות את כושרו של מר לומיס לביצוע חזרתיות), כאן אנו מתכוונים ליכולת לפרט תחזיות באמצעות חישוב הסתברותי שבוצע על ידי אלגוריתמים הפועלים על בסיס סטטיסטי פשוט או על בסיס לוגי.

ניתן להשתמש בניתוח משפטי כדי לחזות את התוצאה של פסק דין. 

בשנת 2016, למשל, בוצע מחקר אשר, הודות להתקדמות בעיבוד שפה טבעית ולמידת מכונה, מטרתו לבנות מודלים חיזויים שימושיים לפיתוח הדפוסים המנחים החלטות שיפוטיות. העבודה חזתה את תוצאות התיקים שניתחו על ידי בית הדין האירופי לזכויות אדם על סמך תוכנם הטקסטואלי: התחזית הצליחה ב-79% מהמקרים. ובאופן כללי יותר, ניתן להשתמש בו כדי לחזות את התנהגותם של כל השחקנים במערכת המשפט. לקס מכינה, נביעה של Lexis-Nexis, משלב נתונים ותוכנה ליצירת מערכי נתונים על שופטים, עורכי דין, צדדים ונושאי ליטיגציה, תוך ניתוח מיליוני דפים של מידע על סכסוכים. בעזרת הנתונים הללו, עורכי דין יכולים לחזות את ההתנהגויות והתוצאות שהאסטרטגיות המשפטיות השונות האפשריות יניבו.

La "ניתוח משפטי" שואפת לחזות את התוצאות של תהליכים: לא על בסיס נימוק משפטי קפדני ומכני, אלא לאור ניתוח אלגוריתמי / סטטיסטי מתוחכם של כמויות אדירות של נתונים (נתונים גדולים).

זה דבר אחד לשער אוריינטציות אפשריות של בית משפט, שופטים, מפעילים. זה דבר אחר לגמרי לחזות בוודאות את התוצאה של פסק דין בודד. כדי להשיג זאת צריכים להיות לנו אלגוריתמים המסוגלים לשלוט באי ודאות וחוסר חיזוי. ובכל מקרה, תישאר הבעיה האתית לגבי הלגיטימציה של הפקדת החלטה משפטית על סוג זה של אלגוריתם.

לגבי היבט אחרון זה, יש צורך לזכור את העבודה שנעשתה על ידי הנציבות האירופית ליעילות הצדק (CEPEJ), שאימצה את מה שמכונה אמנת האתיקה האירופית על השימוש בבינה מלאכותית במערכות משפט ובתחומים קשורים. האמנה, שהונפקה ב-2018, קבעה חמישה עקרונות מרכזיים על השימוש בבינה מלאכותית במערכת "הצדק".

בינתיים, ראה למה אירופה מתכוונת בבינה מלאכותית

סט של שיטות, תיאוריות וטכניקות מדעיות שמטרתן לשחזר את היכולות הקוגניטיביות של בני האדם באמצעות מכונות. ההתפתחויות הנוכחיות מכוונות לגרום למכונות לבצע משימות מורכבות שבוצעו בעבר על ידי בני אדם. עם זאת, הביטוי "בינה מלאכותית" זוכה לביקורת על ידי מומחים, המבחינים בין אינטליגנציות מלאכותיות "חזקות" (המסוגלות להקשר בעיות מיוחדות מסוגים שונים בצורה אוטונומית לחלוטין) לבין אינטליגנציות מלאכותיות "חלשות" או "מתונות" (ביצועים גבוהים ב- אזור האימונים שלהם). חלק מהמומחים טוענים שבינה מלאכותית "חזקה", על מנת להיות מסוגלת לדמות את העולם בשלמותו, תדרוש התקדמות משמעותית במחקר הבסיסי ולא רק שיפורים פשוטים בביצועי המערכות הקיימות. הכלים המוזכרים במסמך זה מפותחים באמצעות שיטות למידת מכונה, כלומר אינטליגנציות מלאכותיות "חלשות".

ומה זאת אומרת צדק מנבא (צדק חזוי)

צדק חזוי פירושו ניתוח של מספר רב של החלטות שיפוטיות באמצעות טכנולוגיות בינה מלאכותית על מנת לגבש תחזיות לגבי התוצאות של סוגים מסוימים של סכסוכי מומחים (לדוגמה, אלה הנוגעים לפיצויי פיטורים או דמי מזונות). המונח "חזוי" המשמש את החברות של טק משפטי נלקח מענפי המדע (בעיקר סטטיסטיקה) המאפשרים לחזות תוצאות עתידיות הודות לניתוח אינדוקטיבי. החלטות שיפוטיות מעובדות במטרה לגלות מתאמים בין נתוני הקלט (קריטריונים הקבועים בחוק, עובדות המקרה, הנעה) לבין נתוני הפלט (החלטה רשמית הנוגעת, למשל, לגובה הפיצויים). מתאמים שנחשבים רלוונטיים מאפשרים יצירת מודלים אשר, כאשר משתמשים בהם עם נתוני קלט חדשים (עובדות או הבהרות חדשות המוכנסות בצורה של פרמטרים, כגון משך הקשר החוזי), מייצרים לפי מפתחיהם תחזית של הַחְלָטָה.

כמה מחברים מתחו ביקורת על גישה זו הן פורמלית והן מהותית, בטענה שבאופן כללי, המודל המתמטי של תופעות חברתיות מסוימות אינו משימה הניתנת להשוואה לפעילויות אחרות הניתנות לכימות בקלות רבה יותר (בידוד הגורמים הסיבתיים באמת של החלטה שיפוטית הוא משימה משימה מורכבת לאין שיעור לשחק, למשל, משחק Go או לזהות תמונה): הסיכון למתאמים כוזבים הוא הרבה יותר גבוה. יתרה מכך, בדוקטרינה, שתי החלטות סותרות יכולות להתגלות כתקפות אם ההנמקה המשפטית מבוססת היטב. לפיכך, גיבוש התחזיות יהווה תרגול בעל אופי אינדיקטיבי בלבד וללא כל טענה מניעה.

לאחר קביעת המועדים, בואו נגלה מהם העקרונות הבסיסיים שנקבעו על ידי ה-CEPEJ

1) עיקרון כיבוד זכויות יסוד:

להבטיח פיתוח ויישום של כלים ושירותים של בינה מלאכותית התואמים לזכויות יסוד. כאשר נעשה שימוש בכלים של בינה מלאכותית ליישוב סכסוך, למתן תמיכה בקבלת החלטות שיפוטית או להכוונת הציבור, חיוני לוודא שהם לא יערערו את ערבויות זכות הגישה לשופט והזכות משפט הוגן (שוויון נשק וכבוד ליריב).

משמעות הדבר היא שמשלבי הפיתוח והלמידה, צריכות להיות הוראות מלאות האוסרות על הפרה ישירה או עקיפה של ערכי היסוד המוגנים על ידי אמנות על-לאומיות.

זכויות אדם בעיצוב.

2) עקרון אי אפליה:

למנוע באופן ספציפי התפתחות או התגברות של כל אפליה בין אנשים או קבוצות של אנשים. בהינתן יכולתן של שיטות עיבוד אלו לחשוף אפליה קיימת, באמצעות קיבוץ או סיווג של נתונים הנוגעים ליחידים או קבוצות של אנשים, על שחקנים ציבוריים ופרטיים להבטיח שהמתודולוגיות לא ישחזרו או יחמירו אפליה כזו ושלא יובילו ל ניתוחים או שימושים דטרמיניסטיים.

השיטה חייבת להיות לא מפלה.

3) עיקרון האיכות והבטיחות:

בכל הנוגע לעיבוד החלטות ונתונים שיפוטיים, השתמש במקורות מוסמכים ובנתונים לא מוחשיים עם מודלים שפותחו מולטי-תחומיים, בסביבה טכנולוגית מאובטחת. יצרני מודלים של למידת מכונה צריכים להיות מסוגלים להסתמך באופן נרחב על המומחיות של אנשי מקצוע וחוקרים רלוונטיים במערכת המשפט בתחומי המשפט ומדעי החברה. הקמת צוותי פרויקט מעורבים, למחזורי עיבוד קצרים, על מנת לייצר מודלים פונקציונליים היא אחת השיטות הארגוניות המאפשרות להפיק את המיטב מגישה רב-תחומית זו.

ככל שנעצב יותר, כך ייטב.

4) עיקרון של שקיפות, חוסר משוא פנים והגינות:

להפוך שיטות עיבוד נתונים לנגישות ומובנות, לאשר ביקורות חיצוניות. יש למצוא איזון בין הקניין הרוחני של מתודולוגיות עיבוד מסוימות לבין הצורך בשקיפות (גישה לתהליך היצירתי), חוסר משוא פנים (העדר משוא פנים), שוויון ויושרה אינטלקטואלית (פריבילגיה לאינטרסים של צדק) בעת שימוש בכלים שהם יכולים. יש השלכות משפטיות, או שיכולות להשפיע באופן משמעותי על חייהם של אנשים. יש להבין שאמצעים כאלה חלים על כל התהליך היצירתי, כמו גם על השרשרת התפעולית, שכן מתודולוגיית הבחירה ואיכות וארגון הנתונים משפיעים ישירות על שלב הלמידה.

בינה מלאכותית חייבת להיות מאומתת על ידי צדדים שלישיים.

5) עיקרון "שליטה על ידי המשתמש":

למנוע גישה מחייבת ולהבטיח שהמשתמשים הם שחקנים מושכלים ושולטים בבחירות שלהם. השימוש בכלים ובשירותים של בינה מלאכותית חייב לחזק ולא להגביל את האוטונומיה של המשתמש. יש ליידע את המשתמש בשפה ברורה ומובנת על האופי המחייב או לא על הפתרונות המוצעים על ידי כלי הבינה המלאכותית, על האפשרויות השונות הקיימות ועל זכותו לקבל סיוע משפטי ולגשת לבית משפט. כמו כן, עליך ליידע אותך בבירור על כל טיפול קודם בתיק באמצעות בינה מלאכותית, לפני או במהלך הליך שיפוטי, וחייבת להיות לך הזכות להתנגד, על מנת שהמקרה שלך ישפוט ישירות על ידי בית משפט. לסעיף 6 ל-ECHR.

קבל מידע נכון כדי לבדוק את הבחירות שלך.

מסקנות:

במבט מעמיק יותר, העקרונות שהוכתבו על ידי ה-CEPEJ מראים לנו דרך, אותה ניתן לסכם (התאמתה להקשר השיפוטי) עם רעיון שהתפתח במהלך הדיון הבינלאומי שהתפתח בתוך האו"ם על נשק אוטונומי. בחוסר האפשרות לקבוע את המצב החישובי של כלי הבינה המלאכותית, ולפיכך, שליטה מלאה על ביצוע האלגוריתם החזוי, לתקן את השינוי של "נכונות ושוויון המחלוקת בין הצדדים ובינם לבין השופט "יש לחזק את הבקשה שההחלטה החזויה מתקבלת מבלי להשתמש רק בתוצאות הסתברותיות גרידא שהתקבלו, לא רק משום שלא תמיד ניתן לאמת את מימושה בצורה מספקת.

אנו מתייחסים להצעה הדוקטרינרית לפיה יש להכשיר כי השימוש במכונה בבית המשפט כפוף לשליטה אנושית משמעותית המיוצגת על ידי התנאים המהותיים הבאים:

1) שהפעלתו תפורסם ותיבדקה בהתאם לקריטריונים של עמיתי ביקורת;

2) ששיעור השגיאות הפוטנציאלי ידוע;

3) כי הסברים נאותים מתרגמים את "הנוסחה הטכנית" המכוננת את האלגוריתם לכלל המשפטי, כך שיהיה קריא ומובן על ידי השופט, הצדדים ומגיניהם;

4) כי החקירה הנגדית על בחירת רכיבים בארכיון, על קבוצותיהם ועל המתאמים של הנתונים המעובדים על ידי מנגנון הבינה המלאכותית נשמרת, במיוחד ביחס לנושא המחלוקת;

5) כי קבלתם על ידי השופט מוצדקת לאור האמור בבית המשפט ולנסיבות העובדתיות המוערכות על פי עקרון ההרשעה החופשית.

   

סיטוגרפיה:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO, שוויון במשפט הפלילי וראיות אוטומטיות לאור האמנה האירופית לזכויות אדם, ב-Rev. italo-española der. proc., 2019, זמין ב- http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

ביבליוגרפיה:

בינה מלאכותית. גישה מודרנית, ראסל ונורביג, פירסון.

יובל נח הררי, הומו דאוס: היסטוריה קצרה של המחר, הוצאת וינטג'.

GWF HEGEL, קווי מתאר של פילוסופיית המשפט, 1821, טרנס. it., בארי, 1996.

G. ROMANO, משפט, רובוטיקה ותורת המשחקים: הרהורים על סינרגיה, בתוך G. Alpa (עריכה), חוק ובינה מלאכותית, פיזה, 2020

G. TAMBURRINI, אתיקה של מכונות. דילמות מוסריות לרובוטיקה ובינה מלאכותית, רומא, 2020

U. RUFFOLO - A. AMIDEI, בינה מלאכותית, שיפור האדם וזכויות אדם, בבינה מלאכותית. חוק, זכויות, אתיקה, כבר צפויים ב- U. RUFFOLO - A. AMIDEI, בינה מלאכותית וזכויות אדם: גבולות ה"טרנס-הומניזם", ב- Giur. It., 2019

J. LASSÈGUE, צדק דיגיטלי. Révolution graphique et rupture anthropologique, פריז, 2018

J. NIEVA-FENOLL, בינה מלאכותית ותהליך, 2018, טרנס. it., טורינו, 2019

S. SIGNORATO, משפט פלילי ובינה מלאכותית. שיקולים בנושא אלגוריתם חיזוי, ב-Riv. דיר. פרוק., 2020

תמונה: www.golegal.co.za

הגנת rheinmetal