論文の概要: Shaping Up SHAP: Enhancing Stability through Layer-Wise Neighbor
Selection
- arxiv url: http://arxiv.org/abs/2312.12115v1
- Date: Tue, 19 Dec 2023 12:46:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:39:37.611829
- Title: Shaping Up SHAP: Enhancing Stability through Layer-Wise Neighbor
Selection
- Title(参考訳): シェーピングアップシェープ:層別近傍選択による安定性の向上
- Authors: Gwladys Kelodjou, Laurence Roz\'e, V\'eronique Masson, Luis
Gal\'arraga, Romaric Gaudel, Maurice Tchuente, Alexandre Termier
- Abstract要約: Kernel SHAPは、そのモデルに依存しない性質と十分に確立された理論的枠組みのために広く使われている。
Kernel SHAPの不安定性は、その隣り合う選択手順によって引き起こされることを示す。
提案手法は,完全安定で,計算効率が高く,かつ有意義な特徴属性法である。
- 参考スコア(独自算出の注目度): 40.39919740176727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning techniques, such as deep learning and ensemble methods, are
widely used in various domains due to their ability to handle complex
real-world tasks. However, their black-box nature has raised multiple concerns
about the fairness, trustworthiness, and transparency of computer-assisted
decision-making. This has led to the emergence of local post-hoc explainability
methods, which offer explanations for individual decisions made by black-box
algorithms. Among these methods, Kernel SHAP is widely used due to its
model-agnostic nature and its well-founded theoretical framework. Despite these
strengths, Kernel SHAP suffers from high instability: different executions of
the method with the same inputs can lead to significantly different
explanations, which diminishes the utility of post-hoc explainability. The
contribution of this paper is two-fold. On the one hand, we show that Kernel
SHAP's instability is caused by its stochastic neighbor selection procedure,
which we adapt to achieve full stability without compromising explanation
fidelity. On the other hand, we show that by restricting the neighbors
generation to perturbations of size 1 -- which we call the coalitions of Layer
1 -- we obtain a novel feature-attribution method that is fully stable,
efficient to compute, and still meaningful.
- Abstract(参考訳): ディープラーニングやアンサンブル手法などの機械学習技術は、複雑な現実世界のタスクを処理できるため、様々な領域で広く使われている。
しかし、そのブラックボックスの性質は、コンピュータ支援意思決定の公平性、信頼性、透明性に多くの懸念を提起している。
これにより、ブラックボックスアルゴリズムによる個々の決定に対して説明を提供するローカルなポストホックな説明可能性メソッドが出現した。
これらの方法のうち、カーネルシェープはモデルに依存しない性質と確立された理論的枠組みのために広く使われている。
これらの強みにもかかわらず、kernel shapは高い不安定さに苦しんでいる。同じ入力を持つメソッドの実行が異なる説明につながり、ポストホックな説明可能性の有用性が低下する可能性がある。
この論文の貢献は2つある。
一方、カーネル・シャップの不安定性は確率的な隣接選択手順によって引き起こされ、説明の忠実さを損なうことなく完全な安定性を達成するために適応することを示している。
一方,第1層の連立と呼ばれるサイズ1の摂動に隣人生成を制限することにより,完全安定で効率的な計算が可能で,かつ有意義な新しい特徴分布法が得られた。
関連論文リスト
- Two Tales of Single-Phase Contrastive Hebbian Learning [9.781171732431169]
完全局所学習アルゴリズムである「二重伝搬」は,性能ギャップをバックプロパゲーションに埋めることが可能であることを示す。
このアルゴリズムは、その数値安定性が、生物学的およびアナログ的な実装において制限的な対称ヌーディングに依存しているという欠点がある。
論文 参考訳(メタデータ) (2024-02-13T16:21:18Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Boundary-Aware Uncertainty for Feature Attribution Explainers [4.2130431095114895]
本稿では,不確実性を考慮した決定境界認識と説明関数近似の不確実性を組み合わせた統一的不確実性推定法を提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
複数のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を改善することが示された。
論文 参考訳(メタデータ) (2022-10-05T17:37:14Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Robust Embeddings Via Distributions [0.0]
NLPモデルの堅牢性を向上させる新しい確率的埋め込みレベル法を提案する。
我々の手法であるRobust Embeddings via Distributions (RED)は、ノイズトークンと周辺コンテキストの両方からの情報を組み込んで、埋め込みベクトル上の分布を得る。
論文 参考訳(メタデータ) (2021-04-17T02:02:36Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。