google-site-verification=jFDbZ4ruzOvvqJby1LcnAXSTcZtDkjDoejPD0-FcsZs
top of page

6/1/25

אליה וקוץ בה: הזכות להסברתיות של מערכות בינה מלאכותית

חופית וסרמן-רוזן

השימוש הגובר בבינה מלאכותית, בין אם כחלופה או ככלי מסייע לקבלת החלטות אנושית, מעלה חששות לגבי שקיפות,
אחריות והוגנות. בתגובה, רגולטורים ברחבי העולם מקדמים את "הזכות להסברתיות", האמורה להקנות ל נשוא ההחלטה
הסבר להחלטת מכונה אוטונומית המשפיעה עליו. לשם מימוש הזכות להסברתיות פונים הרגולטורים לשלל פרקטיקות
טכנולוגיות ליצירת "הסבר" כהגדרתם של מומחי למידת מכונה, והידועות יחד כתחום מחקר הקרוי eXplainability או
XAI .
במאמר זה אבחן באופן ביקורתי את מידת התאמתן של פרקטיקות XAI למימוש "הזכות להסברתיות" הרגולטורית.
לשם כך אנתח ראשית את מהות המושג "הסבר" – כחלק מ"חובת הנמקה" – בעולם המשפט. סקירה תמציתית של
המופעים השונים של חובת ההנמקה במשפט הציבורי, הפרטי ואף הבינלאומי מסייעת לחלץ את התכליות הנעוצות בליבו
של מושג משפטי זה ואשר עומדות ביסוד השימוש התדיר בו. ניתוח זה מעלה כי התכליות המהותיות לחובת ההנמקה
המשפטית כוללות את הבטחת איכות ההחלטה, כיבוד האוטונומיה האנושית, מימוש הזכות להליך הוגן וחיזוק סמכות
מערכת קבלת ההחלטות.
לאחר מכן פונה המאמר לבחינת התחום הידוע כ- XAI , תוך עמידה על התמריץ לפיתוחו על ידי מומחים ללמידת מכונה
- צורך פרקטי טכנולוגי לשפר את ביצועי המערכת - וסקירה של הפרקטיקות השונות המפותחות במסגרתו. העמדת
XAI אל מול התכליות אותן מבוקש לממש באמצעות חובת הנמקה מעלה שלל אתגרים ואף סיכונים פוטנציאליים
הטמונים במימוש הזכות להסברתיות במצבה הנוכחי .
המאמר נחתם בקריאה לאמץ פרשנות תכליתית למימוש הזכות להסברתיות, הן על מנת לכוון את הרגולטורים ומפתחי
ההסברים הטכנולוגים לייצור הסברים שישרתו את אותה "חובת הנמקה" והן על מנת לקדם קיומם של מוסדות ומתווכים
שיהפכו את הזכות להסברתיות ליותר מ"אות מתה" בספר הרגולציה של מערכות בינה מלאכותית.

TAU-ENGbold+HEB.png

© All rights reserved  2023

 Contact Us

Chaim Levanon st., Tel Aviv-Yafo

shamgar ENG logo white-03.png

© כל הזכויות שמורות 2023

bottom of page