דעה: הונאות דיפפייק מנצלות את האהבה והאמון כמו שלא קרה מעולם

Image generated with DALL·E through ChatGPT

דעה: הונאות דיפפייק מנצלות את האהבה והאמון כמו שלא קרה מעולם

זמן קריאה: 6 דק'

הונאות מונעות תוכנה מבית משולשים בעלות, שמשתמשות בטכנולוגיית Deepfake ליצירת וידאו ותמונות משכנעות שמניפולצים את הקורבנות. מאשה צרפתיה שהאמינה שהיא עוזרת לבראד פיט ועד לקורבן שנשכנע מ-Deepfake איכותי, הקווים בין המציאות להונאה מתמהמים. ככל שכלי ה-AI מתפתחים, כך גם הסיכונים.

רבים מאיתנו ראו את זה בחדשות בינואר: אשה צרפתיה איבדה למרמים למעלה מ-850,000 דולר משום שהיא האמינה שהיא מעבירה את הכסף לבראד פיט – הגבר שחשבה שהיא במערכת יחסים איתו למעלה משנה.

המזימים השתמשו בבינה מלאכותית מתקדמת ומניבה כדי ליצור "סלפיס" ולחקור ראיות, והצליחו לשכנע את קורבנם, אן – מעצבת בת 53 שעברה תהליך גירושין – בסיפור הטראגי של בראד פיט מזויף עם צרכים רפואיים דחופים. הם טענו שהכספים שלו הוקפאו בשל הגירושין שלו מאנג'לינה ג'ולי.

אן הכריעה על החלטה אמיצה – ומסוכנת – לשתף בסיפור שלה בציבור, ניסות דיבה, השפלות והתקפות וירטואליות במיליונים. "כמו טיפשה, שילמתי… בכל פעם שספקתי אותו, הוא הצליח להתפזר מהספקות שלי," אמרה היא בתוכנית צרפתית ביוטיוב, כפי שדווח ב-BBC. "פשוט נעשה לי סחרחורה, אני מודה בכך, וזו הסיבה שבגללה דיברתי, כי אני לא היחידה."

היא לא. כמה חודשים מאוחר יותר, משטרת ספרד עצרה 5 אנשים שרמו שתי נשים אחרות על ידי התחזות לפיט. לפני כמה ימים, גם גבר סיני הונה להאמין שחברתו באינטרנט זקוקה לכסף לטיפולים רפואיים ולמימון העסק שלה.

הקורבנות קיבלו סרטונים מותאמים אישית ותמונות – תמונות שלא היו זמינות בשום מקום אחר באינטרנט – והוסיפו לשכנען את השקרים מורכבים של מרמיהם.

דוח חדש מאת Entrust מציג שניסיונות דיפפייק מתרחשים כל 5 דקות. מקרים חדשים של אנשים שנפלו קורבן להונאה באמצעות AI גנרטיבי מופיעים כל יום – מגמה מדאיגה, במיוחד בהתחשב באלפים, או אפילו מיליונים, של אנשים שקבורים בחובות ובבושה ולא מעזים לדווח על כך לרשויות, בלי לדבר על להפוך את זה למודע בציבור.

עלייה בהונאות דיפפייק

מספר מחקרים ודוחות הציפו את הפעמון בנוגע לעלייה בהונאות ובהתקפות סייבר שמופעלות באמצעות AI. נתונים חדשים מטרנדים ותובנות של הונאות של TrustPair לשנת 2025 הראו עלייה של 118% משנה לשנה בהונאה שמופעלת באמצעות AI, כפי שדווח בCFO.

הייה, חברה אמריקאית המתמחה בפתרונות אבטחת קול וביצועים, שיתפה לאחרונה את תוצאות הסקר, חושפת כי 31% מהלקוחות בשישה מדינות קיבלו שיחות מזויפות בטכנולוגיית דיפפייק בשנת 2024, ו-45% מהם הונו – 34% מהקבוצה הזו איבדו כסף ו-32% הועתק להם מידע אישי. בממוצע, הקורבנות מאבדים מעל ל-500 דולר לכל הונאה טלפונית.

לפני מספר ימים, חשף הגארדיאן כי רשת מאורגנת בגאורגיה – במזרח אירופה – השתמשה בפרסומות מזויפות בפייסבוק וגוגל כדי להונות יותר מ-6,000 אנשים ברחבי אירופה, קנדה והממלכה המאוחדת, מרוויחה 35 מיליון דולר דרך המבצעים שלה.

בערך 85 מזימים גאורגיים משולמים השתמשו בדמויות ציבור כמו העיתונאי האנגלי מרטין לואיס, הסופר והמרפא בן פוגל, ואילון מאסק למען המרמות שלהם. המזימים קידמו מטבעות דיגיטליים מזויפים ותוכניות השקעה אחרות, מובילים את הקורבנות להעביר כסף באמצעות בנקים דיגיטליים כמו Revolut – שלאחרונה קיבל רישיון בנקאות בבריטניה.

AI מתקדם, מרמות מתוחכמות יותר

פשענים סייבר השתמשו ב-AI המרחיב למשך מספר שנים, מנצלים כלים כמו ChatGPT כדי ליצור ולתרגם מיילים מעניינים וליצור תוכן מבוסס טקסט משכנע. כעת, כאשר כלים של AI מתפתחים, השימוש בתמונות וסרטונים שנוצרו באמצעות AI הוא בעלק.

לפני מספר שבועות, הציגה ByteDance את כלי הווידאו המבוסס AI החדש שלה, OmniHuman-1, שיכול ליצור אחד מה-Deepfakes המציאותיים ביותר בשוק. בינתיים, יותר ויותר חברות AI מפתחות טכנולוגיות דומות. נראה שרק עניין של זמן מתי הכלים הללו ישמשו גם לצורך הונאות.

למרות שניתן להשתמש בטכנולוגיות אילו "בתום לב" ואף למנוע את התפשטות ההונאות – כמו "הסבתא" המבוססת AI של O2, דייזי, שנוצרה כדי להעסיק הונאים בשיחות ממוחשבות בזמן אמת ולהסיט את תשומת ליבם מהקורבנות האמיתיים – התוצאות של שימוש רע בהן נראות כנלאותות.

ב-Wizcase, דווחנו לאחרונה על הגברה של 614% בתקיפות "תרמית-בעצמך", מתארים איך האקרים משתמשים בטכנולוגיות דיפפייק כדי לגרום לתוכן מזויף להיראות "מציאותי יותר", ואיך חברות מדיה חברתית כמו Meta היו חייבות להתערב בתרמיות של שחיטת חזירים, כאשר הרבה מהמתקיפים משתמשים במיני פלטפורמות אלה. במחקר, Meta רשמה כי הרבה מהתרמיות החלו באפליקציות היכרויות, מוכיחות איך האהבה הרומנטית היא אחת מהפשיטות הנפוצות ביותר – כעת והיסטורית.

אהבה: פשיטה עוצמתית

לא רק שהפושעים הסייבריים מבינים ומשתמשים באינטיליגנציה מלאכותית מתקדמת – יש להם גם הבנה עמוקה של אינטיליגנציה אנושית. המתקיפים יודעים איך לזהות תחומים פגיעים, לבנות אמון, ולהביא את בקשותיהם ברגע הנכון ביותר.

המחקר האם אתה אוהב אותי? מאפיינים פסיכולוגיים של קורבנות הונאות רומנטיות, שנפרסם בשנת 2018 על ידי ד"ר מוניקה טי. וויטי, מסביר כיצד קבוצות פליליות בינלאומיות ביצעו הונאות רומנטיות במשך שנים רבות – אפילו לפני האינטרנט – , וכיצד נשים ביניים-גיל, משכילות, נוטות להיפל למלכודת זו – בדיוק כמו אן.

מה אנחנו יכולות לצפות עכשיו, שמונה שנים לאחר המחקר הזה, עם טכנולוגיה שנראית כאילו ישר מסיפורי מדע בדיוני? כנראה שאנחנו כולנו יותר פגיעות מאשר אנחנו חושבות.

"הקורבנות של סוג זה של הונאה הן לעיתים אנשים המחפשים משמעות, אשר נמצאים בתקופת פגיעות רגשית," כתבה אני לקומפט, פרופסור משנה באוניברסיטת קוויבק במונטריאול (UQAM), במאמר שפורסם לאחרונה ב-The Conversation. "אף על פי שמתעלמים מהוא ולא מבינים אותו, ההונאה הרומנטית מבוססת על מנגנונים פסיכולוגיים מורכבים המנצלים את האמון, הרגשות והפגיעות של הקורבנות."

לב שבור, ארנק ריק

ליו – שם משפחתו של הגבר הסיני שאיבד לאחרונה 200,000 יואן, בערך 28,000 דולר, בהונאה מופעלת על ידי מלאכות האינטיליגנציה המלאכותית – האמין באמת שחברתו הווירטואלית הייתה אמיתית, כאשר ראה תמונות מותאמות אישית ואף סרטונים. הוא בנה קשר רגשי חזק יותר ויותר… עם המונעים שלו.

אף שהוא לא סיפק פרטים נוספים על ההקשר שבדוחות, קורבן נוסף, האישה בת ה-77 ניקי מקלוד, כן עשתה זאת. גם היא חשבה שהיא במערכת יחסים אמיתית עם חברה וירטואלית מתקדמת ושלחה לה £17,000 – מסביב ל-$22,000 – באמצעות העברות בנקאיות, PayPal, וכרטיסי מתנה.

"אני לא אישה טיפשה אך היא הצליחה לשכנע אותי שהיא אישה אמיתית ושאנחנו הולכות לבלות את שארית חיינו יחד", אמרה מקלוד ל-BBC.

מקלאוד הרגישה בודדה ועצובה כאשר פגשה את אלה מורגן בדיון קבוצתי. לאחר מכן, ביקשה מקלאוד שיחת וידאו חיה, אך מורגן אמרה שזה לא אפשרי משום שהיא עובדת במשאית שמן. כאשר מקלאוד החלה לחשוד, החלה מורגן לשלוח סרטונים ריאליסטיים. "היא שלחה לי סרטון לומר 'היי ניקי, אני לא מזייפת, אני על המשאית שלי', ואני הוכחתי לחלוטין מזה", הסבירה מקלאוד. התוכן זמין באתר של ה-BBC, וקל לראות למה מקלאוד האמינה שזה אמיתי – זה דיפפייק באיכות גבוהה.

ה-BBC ביקשה ממומחית לאבטחת מידע ואינטראקציה בין אנוש למחשב באוניברסיטת אברטיי, ד"ר לינסיי שפרד, לנתח את התמונות והסרטונים שמקלאוד קיבלה. "במבט ראשון זה נראה לגיטימי, אם את לא יודעת למה לחפש, אבל אם את מסתכלת על העיניים – תנודות העין לא בדיוק תקניות", אמרה ד"ר שפרד.

"המסמכים נראו אמיתיים, הסרטונים נראו אמיתיים, הבנק נראה אמיתי," אמרה מאקלוד. "עם הכניסה של האינטיליגנציה המלאכותית, כל דבר יכול להיות מזויף."

אהבתם את המאמר הזה? דרגו אותו!
שנאתי לא ממש אהבתי היה בסדר די טוב! אהבתי!

אנחנו ממש שמחים לשמוע שנהניתם!

כקוראים המוערכים שלנו, תוכלו לקחת רגע ולפרגן לנו ב-Trustpilot? זה מהיר וממש חשוב לנו. תודה רבה שאתם כאלה מדהימים!

דרגו אותנו ב-Trustpilot
0 0 משתמשים הצביעו
כותרת
תגובה
תודה לכם על המשוב
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

השאירו תגובה

Loader
Loader הצג עוד...