Sundararajan&Najmi+'20 The Many Shapley Values for Model Explanation (ICML 2020)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/kurita/48a24527-0fa0-4b91-a59d-eded27ad8871/5d04be321b4f0f04fdddfca5d6b72914.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/kurita/8eee03a7-4682-4808-ae95-314ac7be0bfc/dd669647ec74ef6597840de251f34050.png)
まとめ
短めいまとめ
- Shapley Value について様々な計算方法があることを指摘.特に,perturbation の際に抜いた特徴量を表現する際に 1) 学習データの分布を陽に与えるか否か 2) 入力表現が離散的か連続的か という観点でバリエーションが生じていることを指摘した
- それぞれの代表的な手法について,特徴量帰属手法として望ましい公理が成立するかどうかを確認した.
- e.g., オリジナルの SHAP では抜けている特徴量を条件付き期待値で表現するが,この場合だとデータがスパースな場合,モデルに関わらず全ての特徴量に均等に寄与を振り分けてしまう場合があるということを数学的に示した
- また,それぞれの Shapley Value の計算手法についての関係性を説明した.
- Integrated Gradients も SHAP の variant であることを指摘
- e.g., Original な条件付き期待値で定義される SHAP → 特徴量同士の独立, モデルの線形性を仮定 = 特徴量からランダムなベースライン(平均)を取ってきて抜けている特徴量を置き換える BShap ← 離散 ↔ 連続 → Integrated Gradients
丁寧版
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/kurita/ee394769-5dab-4fc3-9523-6c1b1f7b7035/27253ce3330472bd150a0b9106f629d2.png)
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/kurita/d175c26f-5edf-4867-ae4f-8b8f0a209481/538b56fba2465043dc72fbdc022d433c.png)
感想
![](https://s3.ap-northeast-1.amazonaws.com/wraptas-prod/kurita/86968a29-53d1-4feb-9c41-61729c3c0836/4d357d3634ef305802b39a22a5d4e935.png)