Deepfakes: אומנות יצירת "סופרים מזויפים" בזמן הבינה המלאכותית

29 / 12 / 21

בשנים האחרונות, הפיתוח וההטמעה של רשתות עצביות עמוקות האיצו את הפיתוח של יישומים המסוגלים לזהות בצורה מהימנה מאוד קטגוריות שונות של תמונות וסרטונים. 

מדובר במודלים מתמטיים ששורשיהם במחקרים שפורסמו לפני יותר מחצי מאה ושרק בשנים האחרונות, הודות למחשבים בעלי ביצועים גבוהים מאוד בעלות נמוכה, הם התפתחו במהירות, המאפשרים את היישום שלהם בהקשרים אמיתיים שונים, כמו זיהוי. של פרצופים ודיבור אנושי.

אפליקציה שזוכה להצלחה מסוימת בעולם הבידור, אך מציבה מספר בעיות לבטיחות, היא יצירת deepfakes, שילוב של 'למידה עמוקה' ו'זיוף'. מונח זה מתייחס לכל יצירה המתקבלת באמצעות טכניקות המסוגלות להעלות תמונות של אדם (מטרה) על אלו של אדם אחר (מקור) בסרטון שבו האדם השני עושה או אומר דברים מסוימים. בדרך זו תקבלו סרטונים ריאליסטיים מזויפים שבהם, למשל, שחקן משחק חלק, אך פניו מוצבות באופן מציאותי על פניו של אדם מפורסם שמעולם לא ביטא את המשפטים שהוכרזו על ידי השחקן וגם לא היה בהקשר של הסצנה. באופן כללי יותר, עם המונח deepfakes זה מתייחס לתוכן סינתטי המתקבל באמצעות כלים של בינה מלאכותית.

לאחרונה כמה מאמרים הציעו סקירה כללית של הטכניקות ליצירה deepfakes ולמען זיהוים. טכניקות זיהוי חיוניות לזיהוי תמונות וסרטוני וידאו שנוצרו במיוחד כדי להטעות או, באופן כללי יותר, להונות אנשים. בעבודות "היצירה והזיהוי של Deepfakes: סקר"1 ו"למידה עמוקה ליצירה וזיהוי של Deepfakes: סקר"2, המחברים מסבירים את המגמות האחרונות בטכנולוגיות ייצור של זיופים עמוקים, ושימושים אפשריים בתום לב ובחוסר תום לב.

בנוסף לשימושים חוקיים בתחום הפקת סרטים או בתרגום מכונה למשל, ישנם שורה שלמה של שימושים בלתי חוקיים, בפרט בהפקת סרטי פורנו או בזיוף נאומים, לצורך עשיית כסף קל, להשפיע על דעת הקהל והבחירות, ליצור פאניקה, לייצר ראיות משפט כוזבות וכן הלאה. 

הניסיון הראשון ליצירת עמוק זה מקורו במשתמש Reddit שפיתח את האפליקציה בשם 'FakeApp' באמצעות מודל המבוסס עליו קידוד אוטומטי בשילוב כדי לחלץ את המאפיינים העיקריים מתמונת פנים ולשכפל אותם על תמונת פנים אחרת. 

Un קידוד אוטומטי היא רשת עצבית המורכבת מא קוֹדַאִי ו מ מפענח, נוצר במטרה לחלץ את המאפיינים העיקריים של קבוצה של נתונים לא מסומנים (מקודד) ושחזור נתוני הקלט (מפענח) החל מייצוג קומפקטי שנוצר בעבר. א עמוק ניתן ליצור באמצעות a קוֹדַאִי מתמחה על פניו של אדם ושימוש בקידוד מומש כך כנתוני קלט עבור א מפענח מתמחה על פניו של אדם אחר.

טכנולוגיה שנייה להפקת 'זיופים עמוקים' היא השימוש ב'רשתות יריבות יוצרות'. גם במקרה זה אנו עוסקים ברשתות עצביות שמטרתן ליצור תמונות ריאליסטיות שאינן תואמות אנשים אמיתיים3.  

השימוש בטכנולוגיות אלו מקשה יותר ויותר על ההבחנה בין תמונה או וידאו אמיתיים (תמונה או דיבור) לבין תמונה מתוקנת, מה שיוצר בעיות חמורות בתחומי הפרטיות, החיים הדמוקרטיים והביטחון הלאומי.  

בפרסומים אלו מופנית גם לכמה מקרים בעלי עניין מיוחד לעולם הצבאי, בהם נוצרו תמונות לוויין ששונו למטרות צבאיות, כאשר פרטים אינם קיימים במקור.

אמנם זה נכון שקשה יותר ויותר להבחין בין deepfakes מהמציאות, זה גם נכון שהטכנולוגיה באה לעזרתנו. בעבודותיהם, הסוקרים המחברים את טכניקות הניתוח העיקריות המשמשות במדידות deepfakes, טכניקות שעושות לעתים קרובות שימוש, שוב, בטכנולוגיות של למידה עמוקה. אולם למרבה הצער, טכניקות הזיהוי הללו פגיעות מאוד, ודי במאמץ מתון כדי לשנות את תהליך היצירה deepfakes כך שכבר לא ניתן לזהות אותם ככאלה.

כיום, במקרים רבים, נעשה שימוש בתמונות וידאו במשפטים פליליים, סרטונים מאושרים על ידי מומחים לזיהוי פלילי.

אבל עד כמה אתה יכול לסמוך על מה שאתה רואה או שומע בסרטון?

פחות ופחות... לכן יהיה צורך יותר ויותר לתמוך במומחי IT (דיגיטלי) מסוגל להעסיק ולהכיר את השימוש ב למידה עמוקה למומחים לזיהוי פלילי. למרבה הצער, גם על ידי כך, במקרים מסוימים התוצאה עשויה שלא להספיק כדי לברר את האמת שכן לא תמיד קל או אפשרי להסביר כיצד טכנולוגיה עובדת. למידה עמוקה לייצר או לאתר deepfakes

לכן יש צורך לשלב טכניקות ומתודולוגיות מודיעין לאימות השוואתית של ההקשר עם הכלים הטכנולוגיים של ניתוח תמונה ווידאו.

אלסנדרו רוגולו, ג'ורג'יו ג'יאצינטו, מאוריציו ד'אמאטו

מידע נוסף:

- היצירה והזיהוי של Deepfakes: A Survey (arxiv.org

[1909.11573] למידה עמוקה ליצירה וזיהוי של Deepfakes: סקר (arxiv.org)

הנשק החדש ביותר המותאם בינה מלאכותית: תמונות 'זיוף עמוק' של כדור הארץ | שעון חורף

הנשק החדש ביותר המותאם בינה מלאכותית: תמונות 'זיוף עמוק' של כדור הארץ - Defense One

בנייה והדרכה של Deep Fake Autoencoders - CodeProject

מקודד-מפענח מודלים חוזרים של רשתות עצביות לתרגום מכונה עצבית (machinelearningmastery.com)

ניתן להחזיר מחוללי פרצוף מזויף בינה מלאכותית כדי לחשוף את הפרצופים האמיתיים עליהם התאמנו | סקירת טכנולוגיה של MIT

הבנת רשתות יריבות גנרטיביות (GANs) | מאת ג'וזף רוקה | לקראת מדע נתונים

[1406.2661] רשתות יריביות יצירתיות (arxiv.org)

1 ישראל מירסקי וונקה לי. 2021. היצירה והגילוי של Deepfakes: סקר. ACM Comput. Surv. 54, 1, סעיף 7 (ינואר 2022), 41 עמודים. DOI:https://doi.org/10.1145/3425780

2 Nguyen, TT, Nguyen, QVH, Nguyen, CM, Nguyen, D., Thanh Nguyen, D., and Nahavandi, S., "Deep Learning for Deepfakes Creation and Detection: A Survey", arXiv e-prints, 2021, https://arxiv.org/abs/1909.11573v3

3 דוגמה לפרצופים שנוצרו במתודולוגיה זו זמינה כאן: https://thispersondoesnotexist.com (תמונת פתיחה)