דגם הAI של Google מתחת לחקירה אירופאית
הודיעה היום הוועדה להגנת המידע (DPC) על חקירה שהופקדה בידיה כדי לבדוק אם Google הקפידה על חוקי ההגנה על המידע של האיחוד האירופי בעת פיתוח המודל התיאורטי שלה, Pathways Language Model 2 (PaLM 2).הודעה
PaLM2 הוא מודל שפה גדול המשמש במגוון שירותי AI, כולל סיכום אימיילים. Google הצהירה כי היא תשתף פעולה עם החקירה, כפי שנמצא בAP.
החקירה תעריך אם גוגל היתה אמורה לבצע הערכת השפעה על הגנת המידע (DPIA) כדי להעריך את הסיכונים האפשריים לזכויות ולחופש האישי של אנשים מטכנולוגיות הAI שלה.
חקירה זו היא חלק מהמאמצים הרחבים יותר של ה-DPC להבטיח שמירה על כללי ההגנה על המידע בתחום הAI ברחבי אירופה. עיבוד חוצה-גבולות, שמתעסק בטיפול במידע במספר רב של מדינות באיחוד האירופי או שמשפיע על אנשים במספר מדינות, מושם תחת בחינה מיוחדת.
כלים של AI מייצרים, הידועים בכך שהם מייצרים מידע משכנע אך שקרי ומגישים לנתונים אישיים, מייצרים סיכונים משפטיים משמעותיים, כפי שצוין על ידי TechCrunch. ה-DPC, אחראי לוודא שגוגל מצייתת לתקנות ההגנה על נתונים הכלליים (GDPR).
לשם כך ה-DPC יכול להטיל קנסות של עד 4% מההכנסה השנתית הגלובלית של חברת האם של Google, Alphabet, על עבירות, כפי שדווח על ידי TechCrunch.
גוגל פיתחה מגוון של כלים מביצים מבית היינטליגנציה המלאכותית שלה, כולל סדרת Gemini של מודלים גדולים של שפות (שנקראו לשעבר Bard), שמשמשים לשם מגוון של יישומים, כולל שיפור חיפוש באינטרנט באמצעות צ'אט-בוטים מבית היינטליגנציה המלאכותית, כך מדווח TechCrunch.
במרכז הכלים האלה של גוגל נמצא ה-PaLM2, מודל LLM בסיסי שהושק בכנס המפתחים I/O של שנה שעברה, כך אמר TechCrunch.
בחודש שעבר, נחקרה חברתו של אילון מאסק, X, על ידי הרגולטורים האירופאים בשל שימושה בנתונים של משתמשים למען אימון AI. ה-DPC השיקה חקירה לאחר שהתקבלו תלונות ש-X האכילה נתונים של משתמשים לטכנולוגיית ה-Grok AI שלה מבלי לקבל הסכמה תקנית. יחד עם זאת, למרות שX הסכימה להגביל את עיבוד הנתונים שלה, לא נענתה לכל סנקציה.
חקירה זו היא חלק מהמאמצים הרחבים של DPC לסדר את השימוש בנתונים אישיים בפיתוח AI ברחבי האיחוד האירופי. אימוץ החוק האינטיליגנציה המלאכותית באיחוד האירופי באופן משמעותי מציין שלב מרכזי לקיום מסגרת רגולטורית לטכנולוגיות AI ברחבי הבלוק.
השאירו תגובה
בטל