google-site-verification=jFDbZ4ruzOvvqJby1LcnAXSTcZtDkjDoejPD0-FcsZs AI Explainability Reconsidered
top of page

AI Explainability Reconsidered

16.1.23

בשיתוף קהילת AI, Ethics & Law מרכז TAD
חופית ורסמן, דוקטורנטית בפקולטה למשפטים ועמיתת מחקר במרכז שמגר, הציגה את עבודתה המציעה חשיבה מחדש על המושג "הסבריות", כפי שזה מוחל לגבי בינה מלאכותית. השתתפו בדיון פרופ' ליליאן אדוארדס, מבית הספר למשפטים ניוקאסל אנגליה, ופרופ' רן גלעד-בכרך מהפקולטה להנדסה באוניברסיטת תל-אביב.
As the predictive power of AI gradually replaces human decision makers, calls for a "right for explanation" of automated systems gain simultaneous support. Accordingly, the technological domain entrusted with executing this right is continuously sharpening the professional tool, often related to as "explainability" or "interpretability", to generate explanations for end-users and decision subjects. This discussion explores the rudimentary question: Does explainability benefit end users? Leveraging insights from the legal and ML domains, a multidisciplinary analysis uncovers key complexities in the quest to generate users' explainability, and critically questions the intuitive appeal of AI explanations as a means to assist users in an automated world.

AI Explainability Reconsidered
לצפייה בהקלטה
מסמכים להורדה

Photos from the event

bottom of page