דעה: מגפת ההזיות של הAI, משבר שאנו לא מוכנים לו

Image generated with DALL·E through ChatGPT

דעה: מגפת ההזיות של הAI, משבר שאנו לא מוכנים לו

זמן קריאה: 7 דק'

למרות ההבטחות המתמידות להפחית הזיות תוצאות ממערכות AI, כלים עיקריים של AI—מ-ChatGPT דרך Perplexity ועד ל-Gemini ואינטיליגנציה של אפל—ממשיכים ליצור מידע שגוי, לעיתים קרובות עם תוצאות מזעזעות. מומחים, כולל אלה שמזהירים מסיכונים של AI, נפלו בפני תוכן מזויף, ואפילו כלים מתקדמים כמו Deep Research ממציאים דוחות. האמת נראית כאילו עדיין בידיים אנושיות

צ'אט-בוטים התפתחו לטובה לאורך השנים—הרבה יותר טוב. עם זאת, ישנה בעיה אחת שעדיין לא פתרנו לחלוטין והיא מוכרת בשם "הזיות".

הצ'אטבוטים שאנחנו כל כך אוהבים משתפים אתנו בתשובות בריקות לשאלותינו, עם התמדה ואוטוריטה של יודה מתוך סרטי מדע בדיוני, אפילו כאשר הם טועים בצורה מחרידה. ואנחנו מאמינים להם. לפעמים באופן עיוור.

מדענים מרובים, מומחים, ואפילו מפתחי צ'אטבוטים מזהירים מאשר לשנים. ובכל זאת, בעוד שההתפשטות של השימוש בהם מתרחבת במהירות – OpenAI דיווחה על 400 מיליון משתמשים שבועיים פעילים רק לפני מספר ימים – יכולת ההבנה של הקהל הרחב בנושאי AI לא התעדכנה באותו הקצב.

מחקרים חדשים, תיקי בית משפט ואירועים דרמטיים ממשיכים להראות שהמידע המטעה הוא אפילו מסוכן יותר מאשר הבנו.

זה גרוע יותר מאשר חשבנו

בהתחלה, היה מצחיק לזהות טעויות מרכזיות שנוצרו על ידי ממשקי אינטיליגנציה מלאכותית – כמו אותן סקירות מביכות שנוצרו על ידי Gemini שהציעו למשתמשים להוסיף "דבק לא רעיל לרוטב" למתכון פיצה או שהמליצו לאכול "אבן קטנה אחת ביום" בשנה שעברה. אך, ככל שאנו מחזירים את האמון שלנו ב-AI, המצב התסלדד והתבהר כמעורר חשש מתמיד.

בדצמבר, ראינו את כלי הAI של אפל יוצר כותרות "מסכמות" חדשות ומייצר מידע שקרי ומטעה, כמו לדוגמה הטענה שגויה שה-BBC הודיעה שלואיג'י מנגיונה ירה בעצמו. לאחר האירוע הזה, המפרסם הגיש תלונה נגד אפל והחל לחקור את הדיוק של ה-AI הגנרטיבי בעת ניתוח תוכן החדשות.

הממצאים של ה-BBC, שפורסמו לפני כמה ימים בלבד, הם מטרידים: 51% מהתשובות שניתנו על ידי צ'אטבוטים מבית AI הכילו בעיות משמעותיות, 13% מהציטוטים שניתנו על ידי המודלים היו מזויפים לחלוטין, ו-19% מהמידע היה שגוי.

המתבגרים הם אחד מהאוכלוסיות הכי מושפעות, שכן הם לעיתים קשות מתקשים להבחין בין חדשות אמיתיות לחדשות שקר, וניתן להשפיע עליהם בקלות באמצעות תוכן שנוצר באמצעות אינטיליגנציה מלאכותית. מחקר שפורסם בינואר הראה ש-35% מהמתבגרים הוטעו על ידי תוכן מזוייף שנוצר על ידי מודלים של אינטיליגנציה מלאכותית, ו-22% שיתפו את המידע השקרי.

אך המתבגרים ואנשים מוסחים אינם היחידים שנופלים בפח ההזיות האלו. וזה לא רק ג'מיני או אינטיליגנציה של אפל.

אף מודל של אינטיליגנציה מלאכותית לא חסין, אף תעשייה אינה בטוחה

המחקר שביצעה ה-BBC מאשר בעיה נוספת: כל מודלי הבינה המלאכותית סובלים מההלוצינציות. המומחים בחנו את המודלים הפופולריים ביותר, ChatGPT, Gemini, Perplexity, ו-Copilot. אין מודל בינה מלאכותית שפטור משגיאות. לחברת Anthropic יש דף שמתייחס לבעיה זו, ומציע רעיונות על איך להפחית ההלוצינציות.

"אפילו המודלים המתקדמים ביותר, כמו Claude, לפעמים יוצרים טקסט שאינו נכון מבחינה עובדתית או שאינו עקבי להקשר הנתון," כך מציין המסמך. חברות AI אחרות שיתפו דפים דומים עם טיפים וטריקים למניעת תוכן מזויף, אך זה לא קל וזו בעיה שטרם נפתרה לאורך זמן רב.

חזרה בשנת 2023, הכריזה OpenAI שהיא עובדת על דרכים חדשות וחדשניות להימנע מהזיות. אזהרת ספוילר: זה עדיין בעיה גדולה היום.

בינואר 2024 – לפני יותר משנה – אמר המנכ"ל, ארווינד שריניבאס שההזיות של Perplexity היו מתרחשות בעיקר בחשבונות שלא שילמו. "רוב התלונות היו מהגרסה החינמית של המוצר", הסביר שריניבאס, והוסיף שהם כבר הביאו עוד GPUs כדי לטפל בבעיה. עם זאת, עד אוקטובר, העיתונים New York Post ו-Dow Jones הגישו תביעה נגד Perplexity – שכן המודל שלה ייחס חדשות מזויפות לפרסומים שלהם -, והכלי של AI שפותח על ידי הסטארטאפ לבחירות בארה"ב נבחן על ידי מומחים שחשפו אי-התאמות, תקצירים לא מדויקים והזיות.

מחלת ההזיות מגיעה לרמות מדעיות ואקדמאיות

אחד מהדאגות הגדולות ביותר כרגע היא שאפילו מומחים – כולל אלה שמזהירים מסיכונים וסכנות של הAI – נפלו בפח הכלים המסוכנים האלו המוכנים להפק ההלוצינציות.

בדצמבר, הפרופסור מאוניברסיטת סטנפורד ומומחה לטכנולוגיה ולתעמולה מטעהת, נאשם ג'ף הנקוק בשימוש בAI לייצור הצהרת בית משפט. הנקוק הגיש הצהרה באורך של 12 עמודים שהגנה על חוק המדינה של שנת 2023 שמפשיע את שימוש ב-Deepfakes, כולל 15 הפניות. עם זאת, שתיים מההפניות האלו לא נמצאו בשום מקום – משום ש-ChatGPT, הכלי המועדף של מומחה למידע מטעה, פשוט יצר אותם מאין.

הנקוק – שמתוכנת ללמד השנה "אמת, אמון וטכנולוגיה" – הסביר שהוא השתמש בבוט של OpenAI כדי לארגן את הציטוטים שלו, מה שהוביל להזיות. החוקר התנצל – והמשיך לתמוך בנקודות החשובות של ההכרזה שלו -, ולימד את כולנו את השיעור החשוב שאפילו מומחים ואלה שהם המבינים ביותר בסיכונים של ה-AI נתפסים לזרימה.

פרופ' הנקוק לא היה היחיד שהגיש מסמכים המכילים הזיות שנוצרו על ידי AI במשפט, כמובן. עוד מקרה הכולל תביעה נגד Walmart לאחרונה הפך לוויראלי מכיוון שהעורכים דין השתמשו במקרים מזוייפים שנוצרו על ידי AI כדי לבנות את הטיעון שלהם. למעשה, הבעיה הפכה לכה נפוצה בבתי המשפט בארה"ב עד שמשרד העורכים דין מורגן ומורגן שלח לאחרונה מיילים ליותר מ-1,000 מהעורכים דין שלו, מזהיר אותם מהסיכונים של שימוש בציטוטים שנוצרו על ידי AI, ואיגוד העורכים האמריקאי תזכיר ל-400,000 מהחברים שלו את כללי האתיקה של העורכים – כולל מידע שנוצר על ידי AI.

מחקר עמוק גם

אחד מכלי ה-AI הפופולריים ביותר ברחבי הגלובוס כיום הוא "Deep Research", שנוצר למומחים ולמדענים שמחפשים תוצאות מורכבות יותר במחקרים שלהם. ההזיות הן גם הן לא חסרות לכלי זה, גם אם הגרסה של OpenAI התחילה עם דרישה של מנוי Pro בעלות של $200 לגישה.

משתמשים ב-Reddit העלו דאגות בנושא זה, דווחו על כך שכל המודלים הפופולריים שמתוארים ככלי חקר עמוק—Perplexity, ChatGPT, ו-DeepSeek—הזוו. מחקרים ומומחי AI שיתפו גם תוצאות מדאיגות בפלטפורמות חברתיות אחרות כמו X.

"הכלי ייצר דוח מנומס ומנוסח בצורה מרשימה", כתבה משתמשת אחת שהשתמשה בכלי המחקר המעמיק של OpenAI כדי לחקור מתמטיקה שנעשתה על ידי צעירים. "הבעיה היחידה היא שהכל הומצא מאליו".

"המחקר המעמיק המציא סטטיסטיקות וניתוחים שונים, תוך שהוא טוען להרכיב מאגר של אלפי מאמרים, ולאסוף מידע על שנת הלידה של כל מחבר ממקורות אמינים", שיתפה אחרת. "שום דבר מכל זאת אינו נכון".

האמת נשארת בידי האדם

האם צ'אטבוטים יפסיקו פעם להזיה? הנקודה החלשה של הAI הייתה ברורה למשך שנים – ראינו אותה בפודקאסטים כמו ״Planet Money״ כאשר הם בדקו תקצירים שנוצרו על ידי AI בשנת 2023, ואנחנו ממשיכים לראות את זה בדגמים המתקדמים ביותר, אפילו אלו שנוצרו לשימוש בלעדי של קהילות מומחים ומשתמשים מבינים בטכנולוגיה.

אולי הגיע הזמן להקליט את המובן שזה ימשיך להישאר בעיה, ולהבין שעלינו להAssume responsibility for what we create and share using AI tools. לקחת אחריות על מה שאנחנו יוצרים ומשתפים באמצעות כלי מלאכותיים.

העובדה שאף על פי שזה נראה כמו בעיה מוכרת, אך מומחי סיכונים של AI נופלים בכתיבה משכנעת ומרשימה של AI היא בהחלט מדאיגה. המצב הופך להיות אף יותר מורכב כאשר האימוץ ממשיך להאצות במהירות מלאה, שמעקף את הידע הדיגיטלי, בעוד שהעקביות והציטוטים המזויפים מתרבים.

המקרים בהם נחשפו ההזיות של מלאך מלאך הם אלה בהם בדיקת העובדות היא חיונית – משהו שצריך להזכיר לצוקרברג עכשיו שהוא הוציא את מחלקת הבדיקת העובדות שלו. זה מודגש במיוחד בבתי המשפט, שם משנים ושופטים עובדים לאמת עובדות ומקרים, ובתקשורת, שם הדיוק ואימות המקורות חשובים.

אבל מה לגבי המקרים שבהם אף אחד לא בודק את הפרטים האלה? מה קורה בהקשרים יומיומיים, אישיים יותר? כרגע, מיליונים של תלמידים לומדים תשובות שנוצרו על ידי AI ללימודיהם, משתמשים מבצעים הוראות שניתנו על ידי AI לטיפול בתסמינים, ואחרים לומדים על נושאים חדשים, תוך שהם מאמינים לחלוטין בטכנולוגיה.

התוצאות של המציאות החדשה שאנחנו נתקלים בה הן בלתי נמדדות ובלתי ניתנות לחיזוי, והאמת – לפחות כרגע – בידי האנשים שמקדישים את הזמן להסתפק ולאמת.

אהבתם את המאמר הזה? דרגו אותו!
שנאתי לא ממש אהבתי היה בסדר די טוב! אהבתי!

אנחנו ממש שמחים לשמוע שנהניתם!

כקוראים המוערכים שלנו, תוכלו לקחת רגע ולפרגן לנו ב-Trustpilot? זה מהיר וממש חשוב לנו. תודה רבה שאתם כאלה מדהימים!

דרגו אותנו ב-Trustpilot
0 0 משתמשים הצביעו
כותרת
תגובה
תודה לכם על המשוב
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

השאירו תגובה

Loader
Loader הצג עוד...