
Image generated with OpenAI
דעה: מודלי ה-AI הם "יצורים" מסתוריים, ואפילו היוצרים שלהם לא מבינים אותם לחלוטין
המחקר האחרון של Anthropic על כיצד דגם ה-Haiku Claude 3.5 שלהם פועל, מבטיח גילויים משמעותיים וניצוץ של הבנה בפעולת טכנולוגיות AI מתקדמות. אך מה הם מתכוונים כאשר הם אומרים שה-LLMs הם "אורגניזמים חיים" ש"חושבים"?
לפני כמה ימים, שחררה Anthropic שני מאמרים עם מחקר משמעותי על כיצד דגמי השפה הגדולים (LLMs) פועלים. בעוד שההתפתחויות הטכניות היו מעניינות ורלוונטיות, מה שלכד את תשומת לבי ביותר היה האוצר המילים שנמשך על ידי מומחי ה-AI.
במחקר על ביולוגיה של דגם שפה גדול, החוקרים השוו את עצמם לביולוגים שלומדים "ישויות חיות" מורכבות שהתפתחו לאורך מיליארדי שנים.
"באופן דומה, גם אם מודלים של שפות נוצרים על ידי אלגוריתמים של הדרכה פשוטים שנוצרו על ידי בני אדם, המנגנונים שנוצרים מאלגוריתמים אלו מתגלים כמורכבים למדי", כתבו המדענים.
במהלך השנים האחרונות, דגמי הAI התפתחו באופן משמעותי. ואנחנו עדים להתפתחותם המהירה במהלך החודשים האחרונים. ראינו את ChatGPT הופך מדגם שמתמקד רק בטקסט לחבר המדבר, ועכשיו לסוכן מרובה ממדים שיכול גם ליצור תמונות מרהיבות בסגנון אולפני Ghibli.
אבל, מה אם הדגמים המתקדמים של AI מתקרבים לרמה הפנטסטית של פיתוח היכולת לחשוב בצורה מתקדמת כל כך, שאפילו היוצרים שלהם אינם מבינים את התהליכים והמערכות שלהם? ישנם מספר מסתורינים שמסביב לטכנולוגיות AI שיכול להיות שיהיה רלוונטי לשקול לחזור עליהם – או להיכנס לתוךם – בשנת 2025.
הפרדוקס המפחיד של קופסת השחור של דגמי הAI
ישנם מספר דיונים על אימוץ הAI ואודות מיומנות בAI, ועל איך אלו שמבינים איך דגמי AI המייצרים פועלים הם פחות נוטים לראות בצ'אטבוטים "חברים" או "אפליקציות קסומות". אך, ישנה עוד ויכוח – בין מומחים ואנשים מכירים יותר עם הטכנולוגיה – על האם לשוות או להתייחס לדגמים של LLM כיצירות עצמאיות. לגבי האחרון, ישנה רכיב מיוחד, תעלומה הידועה בשם "פרדוקס התיבה השחורה של הAI", שמשחק תפקיד מכריע בדיון.
מערכות למידה עמוקה מאומנות לזהות אלמנטים ומגמות בדרכים דומות לאלו שבהן אנו, בני האדם, עושים זאת. בדיוק כמו שאנחנו מלמדים ילדים לזהות תבניות ולשייך מילים מסויימות לאובייקטים שונים, גם הLLMs מאומנים ליצור קשרים ייחודיים ולבנות רשתות שהופכות להיות יותר ויותר מורכבות ככל שהן "גדלות".
סאמיר רוושדה, פרופסור משנה להנדסת חשמל ומחשבים, מתמחה בבינה מלאכותית ומסביר שכמו שזה קורה כאשר אנו לומדים על הבינה האנושית, זה כמעט בלתי אפשרי לראות באמת איך מערכות תהליך למידה מעמיקות מקבלות החלטות ומגיעות למסקנות. זו הבעיה שמומחים מכנים כ"בעיה של התיבה השחורה".
מודלי ה-AI מאתגרים את ההבנה האנושית
מחקר האחרון של Anthropic הבהיר את מצב 'התיבה השחורה' ב-AI על ידי הסבר איך המודל שלה "חושב" בתרחישים מסוימים שהיו עד כה מעורפלים או אפילו שגויים לחלוטין. אף אם המחקר מבוסס על המודל Claude 3.5 Haiku, הוא מאפשר למומחים לפתח כלים ולנתח תכונות דומות במודלים אחרים של AI.
"להבין את הטבע של האינטיליגנציה הזו הוא אתגר מדעי עמוק, שיכול לשנות את התפיסה שלנו של מה זה ל'חשוב'", מציינת המאמר ששותף על ידי מחקרי Anthropic.
עם זאת, המונח "חשוב", שהוקצה לטכנולוגיות הAI, מטריד את מסוימים מהמומחים בתעשייה והוא חלק מהביקורת על החקירה. משתמש Reddit הסביר למה זה מטריד קבוצה של אנשים: "יש הרבה האנתרופומורפיזם במאמר שמערפל את העבודה. לדוגמה, המאמר ממשיך להשתמש במילה 'חשוב' כאשר הוא צריך להגיד 'חישוב'. אנחנו מדברים על תוכנה למחשב, לא על מוח ביולוגי".
בעוד שהמונחים "מובני האדם" מסייעים לאנשים שאינם מקצועיים להבין דגמי AI בצורה טובה יותר ומעלים דיון בקהל, האמת היא שבין אם אנחנו אומרים "חושב" או "מחשב", אתגר זהה נותר: אין לנו הבנה מלאה או שקיפות מלאה אודות איך LLMs פועלות.
מה לצפות מדגמי AI מתקדמים בעתיד הקרוב
האם את יכולה לדמיין שאת מתעלמת מקיומם של טכנולוגיות AI מתקדמות כמו ChatGPT, DeepSeek, Perplexity, או Claude – עכשיו או בעתיד הקרוב? כל הסימנים מצביעים על כך שאין דרך חזרה. AI יוצר ומנמיך כבר הפכו את חיינו היומיומיים, והם ימשיכו להתפתח רק.
כמעט כל יום ב-WizCase אנו מדווחים על פיתוח חדש בתעשייה – דגם AI חדש, כלי AI חדש, חברת AI חדשה – שיש להן הפוטנציאל להשפיע באופן משמעותי על החברה שלנו. הרעיון של לקחת הפסקה כדי קודם להבין טוב יותר את הדגמים המתקדמים האלה ואת האופן שבו הם פועלים – או אפילו להאט במעט – נראה בלתי אפשרי, בהתחשב בקצב המהיר של התחרות בAI ובהתערבות הממשלות והחברות החזקות ביותר בעולם.
"דגמי AI משפיעים יותר ויותר על איך אנחנו חיים ועובדים, אנחנו חייבים להבין אותם מספיק טוב כדי לוודא שההשפעה שלהם היא חיובית", כתוב במאמר של Anthropic. אפילו אם זה נשמע קצת בלתי מציאותי, החוקרים נשארים אופטימיים: "אנחנו מאמינים שהתוצאות שלנו כאן, והמסלול של התקדמות שהן מתבססות עליו, הן ראיה מרגשת שאנחנו יכולים להתמודד עם האתגר הזה."
אך כמה מהר באמת יכולות התגליות האלה להתקדם? המאמר מציין גם שהתוצאות מכסות רק מספר אזורים ומקרים מסוימים, ושאין אפשרות להגיע למסקנות כלליות יותר. לכן, כנראה שלא מהר מספיק.
בעוד הרגולטורים מציגים צעדים כמו חוק האינטיליגנציה המלאכותית של האיחוד האירופי, דורשים שקיפות גבוהה יותר, מעלים האשמות והתנגדויות מצד החברות הטכנולוגיות הגדולות בשל כבילת, לדעתן, את ההתקדמות, מודלים חזקים של אינטיליגנציה מלאכותית ממשיכים להתקדם.
כחברה, עלינו לשאוף למצוא איזון בין העמקת ההבנה שלנו בפעולתן של טכנולוגיות אלו ובין אימוצן בדרכים שמביאות תועלת משמעותית ותקדמון לקהלים שלנו. האם זה אפשרי? הרעיון של פשוט להתפלל או לקוות שאותן "יצורים" יישארו "אתיים" ו"טובים" לא נראה כל כך מופרך כרגע.
השאירו תגובה
בטל