جمعه ۲۱ فروردین ۰۵ ۱۵:۲۲
یکی از بزرگترین موانع در پذیرش مدلهای Deep Learning در حوزههای حساس (مثل پزشکی یا مالی)، ماهیت “Black Box” آنهاست. XAI مجموعهای از متدولوژیهاست که به ما اجازه میدهد بفهمیم مدل چرا یک تصمیم خاص گرفته است.
متدهای کلیدی:
- LIME: با ایجاد تغییرات کوچک در ورودی و مشاهده خروجی، یک مدل خطی ساده پیرامون آن نقطه ایجاد میکند تا تاثیر ویژگیها را بسنجد.
- SHAP (SHapley Additive exPlanations): بر اساس تئوری بازیها، سهم هر ویژگی (Feature) را در پیشبینی نهایی محاسبه میکند. فرمول ریاضی آن به شکل زیر است:ϕi=S⊆N∖{i}∑n!∣S∣!(n−∣S∣−1)![v(S∪{i})−v(S)]
- Integrated Gradients: برای مدلهای عصبی عمیق استفاده میشود تا اهمیت هر پیکسل یا واژه را در خروجی مشخص کند.
این حوزه برای شما که تحلیلگر داده هستید، ابزاری حیاتی برای “Model Debugging” و جلب اعتماد ذینفعان (Stakeholders) است.
- ۳ بازديد
- ۰ نظر