linkedin
להרשמה לניוזלטר
14.05.2023 עדכון לקוחות
התקדמות בהליך החקיקה של ה- AI ACT
אודות תחומי פעילות

צעד חשוב נוסף בדרך לחקיקת ה-AI ACT, חקיקת רגולציית הבינה המלאכותית של האיחוד האירופי.

ביום חמישי (11.5.23) אישרו שתי ועדות פנימיות של הפרלמנט האירופי את הבאת הטיוטה העדכנית של ה-AI ACT להצבעה במליאת הפרלמנט שקבועה ל-14.6.23.

על אף שייתכן שיחולו שינויים מסוימים בטקסט עצמו, בפועל זהו אישור של המתווה הבסיסי המוצע לחוק, שסולל את הדרך לאישור הסופי הצפוי בסוף השנה הנוכחית.

במסגרת זו שוחררה לציבור הטיוטה העדכנית והיא כוללת מספר שינויים חשובים לעומת הנוסח הקודם:

  • הגדרת "מערכת בינה מלאכותית" שונתה והיא תהלום את הגדרות הOECD העתידיות, ותכלול למשל מערכות שיש להן מידה מסוימת של עצמאות ויכולות ליצור תוצר כמו המלצה או החלטה;
  • הרחבת רשימת מערכות בינה מלאכותית שיהיו אסורות באיחוד האירופי, בעיקר בהקשר של זיהוי ביומטרי וסקטורים ספציפיים כמו חינוך ועבודה;
  • הנחיות ספציפיות לעניין Foundation Models ו-Generative AI: בהמשך להתפוצצות מודלי השפה שאנו עדים לה (כגון ChatGPT ,GPT4, Llama וכיוצ"ב), נוספו כללים מחייבים בנושא. עפ"י טיוטת החוק הנוכחית Foundation Models מוגדרים כמודלי AI שאומנו על בסיס מידע רחב, נבנו למתן פלט כללי וניתנים להתאמה למגוון רחב של משימות. הטיוטה כוללת אף התייחסות לכמה נושאים משמעותיים שהתעוררו בקשר לשימוש במודלים אלו – פרטיות, זכויות יוצרים (דרישה לציין אם משתמשים במידע מוגן לצורך אימון המערכת) ובדיקה  מקדמית (מעין תסקיר השפעה על זכויות, וקיום דינים של האיחוד) שתבוצע על ידי מפתחי המודל. לפודקאסט שהקלטנו בנושא.
  • אלו שימושי בינה מלאכותית יחשבו בסיכון גבוה? כידוע הצעת החוק כוללת רשימת שימושים שנחשבים כ"סיכון גבוה" (למשל שימוש בבינה מלאכותית בבריאות, ביטוח, עבודה וכיוצ"ב) ומוטלות עליהם שורת הוראות מיוחדות, כפי שתיארנו בפודקאסט שהקלטנו בנושא. סוג זה של שימושי מערכות בינה מלאכותית מהווה את ה"לב" של הצעת החוק. בטיוטה העדכנית נקבע כי השיוך לקטגוריה זו לא יהיה אוטומטי אלא יידרש שהשימוש במערכת יהווה סיכון משמעותי לזכויות אדם. מאידך, הטיוטה כוללת ברשימה גם large platform recommendation systems ואנו ממליצים ללקוחותינו להיות ערניים לרשימה הסופית שתתגבש;
  • יצירת גוף אכיפה בשם AI OFFICE, לשם קידום אכיפה משמעותית של החקיקה. הקמת גוף אכיפה ייעודי עשויה בסבירות גבוהה לייצר אכיפה משמעותית ומהירה יחסית, מה שכמובן מחזק את המלצותינו בדבר היערכות מוקדמת.
  • הוראות וולונטריות ביחס לכל מערכות בינה מלאכותית בתחומי האיחוד, שמטרתן לוודא פעולה לאור עקרונות כמו בטיחות ואמינות (Robustness), הגנת הפרטיות, שקיפות, פיקוח אנושי, גיוון והיעדר אפליה והגנת הסביבה.

הטיוטה הנוכחית שמועברת כעת לשלב הסופי של החקיקה צפויה להוות נדבך חשוב ברגולציה של בינה מלאכותית המתגבשת כיום. יש בה מגוון תוספות שתואמות לנושאים שהעלינו בוובינר שקיימנו בנושא גיבוש מדיניות AI ארגונית משפטית, ואנו חוזרים על המלצותינו להיערך בשלב מוקדם ולהתחיל לגבש מסמכים וכלי מדיניות שונים לצורך שימוש במערכות מבוססות AI בצורה שמפחיתה סיכונים. כמו כן, אנו חוזרים על המלצותינו בעניין ביצוע הדרכות עובדים והעלאת מודעות ארגונית לסיכונים ששימוש בכלי AI מביא עמו.

נמשיך לעקוב ולעדכן.

אנחנו עומדים לרשותכם לכל שאלה,

אייל שגיא, חופית וסרמן רוזן, שיר שושני כץ

וצוות מחלקת משפט וטכנולוגיה

מובהר כי אין באמור בכדי להוות התייחסות לנסיבות ועובדות ספציפיות ואין לראות בכך משום חוות דעת ו/או ייעוץ משפטי לעניין קונקרטי.