הקו הברור בין סרטונים אמיתיים לבין סרטונים שנוצרו באמצעות מלאכותית עשויה להתעלם בשנת 2025
תוכן שנוצר באמצעות AI הוא כאן כדי להישאר. הוא משתפר ומשתפר וראינו שיפור משמעותי בטכנולוגיות ה-AI בשנת 2024. האם נוכל להבחין בין מה שאמיתי למה שאינו בשנת 2025?
לאחרונה שאלתי את עצמי: "האם זו אשה אמיתית?" – כשאני ממש מקיצצת את עיני – לאחר שראיתי פוסט באינסטגרם. "לא, זה בהכרח תוכן שנוצר באמצעות AI", הגעתי למסקנה לאחר רגע. אז תהיתי מיד: האם נוכל עדיין להבחין בהבדל בתוך שניות בשנה הבאה? כל הסימנים מצביעים על שלא, במיוחד במדיה החברתית, כפי שהתפתחויות גדולות בטכנולוגיה של AI בזמן האחרון מsuggest.
לפני מספר ימים, ראש אינסטגרם, אדם מוסרי, שיתף הודעה שמתייחסת לבעיה זו ב-Threads. "ה-AI המניב clמייצר תוכן שקשה להבחין מתוך הקלטות של מציאות, ומשתפר במהירות," כתב. מוסרי הודה בפומבי שהם מתקשים ב- Meta לתייג תוכן שנוצר על ידי AI ולשלוט ולנטר את כמות המדיה המסיבית שמשותפת בכל שנייה על פלטפורמות המדיה החברתית שלהם.
מוסרי שטף את ידיו של Meta מאחריות והזהיר משתמשים שזה עליהם להבחין אם פוסט הוא אמיתי או לא. "זה יהיה משמעותי יותר ויותר שהצופה, או הקורא, יביא ראש חד כשהם צורכים תוכן שנותן להבנות שהוא חשבון או הקלטה של מציאות," הוסיף.
רק כמה ימים לאחר מכן, OpenAI שיחררה את Sora Turbo, מחולל הווידיאו החזק שלה, המאפשר למשתמשים מסוג Pro ו-Plus ליצור סרטונים מציאותיים ממונחים טקסטואליים. תוך כמה דקות בלבד, משתמשים החלו ליצור סרטונים מרתקים ומציאותיים והחלו לשתף אותם ברשתות החברתיות.
בדיוק כאשר הכל נראה כאילו מגיע לרמה חדשה של ייצור סרטונים, Google הכריזה על כלי הווידיאו החדש שלה, Veo 2, עם רזולוציה גבוהה יותר וקטעים ארוכים יותר מאשר Sora. כמובן, התוצאות ששיתפו אלה שהיה להם גישה לטכנולוגיה המתקדמת היו אפילו יותר מרשימות.
"אף אחד לא יכול לקבוע שזה ראי כבר," כתבה משתמשת אחת.
It's over.
Google Veo 2 פשוט נעקף את התחרות והפך למלך החדש של עולם המדיה של האינטיליגנציה המלאכותית.
אף אחד לא יכול לזהות שזהו מלאך תוכנה כעת.
10 דוגמאות מטורפות: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 בדצמבר 2024
זה כבר קורה
במהלך 2024, היינו עדים לאיך תוכן שנוצר על ידי מלאכות פשוטות (AI) השפיע על אוכלוסיות, בחירות ומשתמשים ברשתות החברתיות.
בינואר, תושבי ניו המפשייר התקבלו שיחה "מג'ו ביידן" שהזהירה אותם שלא להצביע בבחירות המוקדמות. היועץ הפוליטי, סטיב קרמר, היה מאחורי העבירה וקנס ב- 6 מיליון דולר עבור שיחות רובוטים של מלאכותית שהפקות עמוקות (AI deepfake). ממשלות מבינות את ההשפעה של האינטיליגנציה המלאכותית ומדינות כמו סינגפור מפתחות חוקים ואסטרטגיות לעזור לאוכלוסייה לזהות תוכן מהפקה עמוקה חמישית (deepfake).
בונצואלה, סרטונים שנוצרו באמצעות אינטיליגנציה מלאכותית מפיצים מידע מטעה -אך גם מסייעים לעיתונאים להסביר דרך אווטרים של אינטיליגנציה מלאכותית כדי לעקוף את הצנזורה.
אנשים מתקשים להבחין בין מה שאמיתי למה שאינו, וזה לא באשמתם: תוכן שנוצר באמצעות מלאכת מחשב ממשיך להשתפר ולהשתפר.
תוכן איכותי שנוצר באמצעות מלאכת מחשב הוא עסק מתפתח בכל הצורות שלו; טקסט, אודיו, ווידאו. הרבה יוצרי OnlyFans מתבססים כיום על צ'אטבוטים כדי להשתתף בשיחות עם המעריצים שלהם, משרה שבעבר הוקצתה לעובדים חופשיים במדינות עם הכנסה נמוכה. המודלים החדשים של מלאכת מחשב שמתמחים בטכניקות פיתוי אף יצרו $1,000 בטיפים מהעוקבים שלהם.
באפריל, הסטארטאפ Synthesia שמקבל תמיכה מ-Nvidia, שיקה אווטרים מבית AI שיכולים להביע רגשות אנושיים ולדבר ב-130 שפות שונות. TikTok מאפשרת לחברות ליצור מודעות שנוצרו באמצעות AI באמצעות תוכן של Getty Images, וכעת יוצרי YouTube יכולים להשתמש בתכונה החדשה של AI auto-dubbing כדי לתרגם את התוכן שלהם ל-9 שפות שונות ועדכונים עתידיים ישקף את הקול המקורי.
Zoom עובדת על יצירת אווטרים מבית AI שנראים בדיוק כמו המשתמשים כדי לעזור להם להקליט הודעות ואפילו להשתתף בפגישות. כלי זה יושק בשנה הבאה, אך אנשים כבר בדקו מספר כלים וחברות כבר יכולות ליצור כפילות AI ריאליסטיות מאוד.
האם את בטוחה שדיברת עם אדם אמיתי בשיחת הזום האחרונה שלך?
איך לדעת אם זה נוצר על ידי מלאכת ידי אינטיליגנציה מלאכותית? לפחות לעכשיו
אנחנו חיים בתקופה מבלבלת בעידן הדיגיטלי. מסננים יכולים להפוך כל אחת לדוגמנית עם עור ללא פגם, ותיקונים שמתאימים לפוטושופ רק בלחיצת כפתור באינסטגרם או סנאפצ'אט – כמה אנשים ירצו לשתף את התמונה ה"טבעית" שלהם, עם כל החסרונות, כשאפשר לשדרג אותה בשניות? אנחנו רואים יותר ויותר פרסומות המציגות תמונות פוטוריאליסטיות שנוצרו על ידי אינטיליגנציה מלאכותית, המשכנעות את העיניים שלנו לאט לאט בהיכרותן ו"נורמליותן". וכל יום, אירועים מפתיעים ברחבי העולם מגרים בנו לשאול: מה הוא אמיתי, ומה כבר לא?
חברות הAI הגדולות עובדות על יצירת סימנים מיוחדים כדי לזהות את התוכן שהן מייצרות באמצעות תוכנות מלאכותיות, ולהבחין בו בקלות. Google DeepMind השיקה מערכת סימנים פתוחה למקור באוקטובר, על מנת לתייג סרטונים, טקסטים ואודיו שנוצרו באמצעות AI, וגם Meta כללה סימן כזה בכלי הווידאו שלה המבוסס AI.
אך יעילותה של מערכת זו מעוררת שאלות, החל מההודאה של Meta שהיא לא יכולה לתייג את כל התוכן שנוצר באמצעות AI. פושעים עם מניעים רעים יכולים עדיין למצוא דרכים להסיר את הסימנים וחוקים נוספים, שותפויות והסכמים נדרשים בין חברות המדיה החברתית והממשלות כדי להשיג מערכת מוצלחת יותר.
לעת עתה, חוץ מלסמוך על האינטואיציה שלנו, אנחנו יכולות לשאול את עצמנו מספר שאלות לפני שאנחנו משתפות משהו ברשתות החברתיות או מאמינות למה שאנחנו רואות:
- כמו שמוסרי המליץ, שיקלו את הנושא הבא: מי משתף את המידע הזה? האם זו מקור אמינה?
- האם הביטוי או התנועה של האדם מרגישים כמו של רובוט? למרות שאוואטרים של AI יכולים להיראות די אמיתיים, עדיין אפשר לזהות מתח תועב או חוסר רגש – אם כי יש לזכור שישנן כמה חברות כמו Synthesia שכבר משפרות את זה.
- האם התוכן מעוצב כך שיגרור תגובה רגשית חזקה? אנשים רעים מבינים כמה קל לנו לשתף חדשות שליליות ולהגיב לחומרים מלאים ברגש שנמצאים ברשתות החברתיות, והמחקר מאשר את זה. לפני שאת משתפת את התוכן שגרם לדמך לרתוח כדי שגם האחרים יתרגשו כמוך, חשבי אם התוכן מאותחל להעיר מחלוקת או אם הוא באמת חדשות אמיתיות או אירוע אמיתי.
- האם את יכולה לאמת את התוכן עם מקורות אחרים? בדיקה כפולה עם מקורות אמינים לעולם לא מזיקה.
ולבסוף, האם שאלת את עצמך – או את הצ'אטבוט המועדף עליך – איך לשפר את החשיבה הביקורתית שלך? פיתוח חשיבה ביקורתית צריך להיות בהחלט בראש רשימת ההתחייבויות לשנה החדשה של כל אחד.
השאירו תגובה
בטל