論文の概要: On Baselines for Local Feature Attributions
- arxiv url: http://arxiv.org/abs/2101.00905v1
- Date: Mon, 4 Jan 2021 11:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:54:31.752825
- Title: On Baselines for Local Feature Attributions
- Title(参考訳): 局所特徴属性のベースラインについて
- Authors: Johannes Haug, Stefan Z\"urn, Peter El-Jiz, Gjergji Kasneci
- Abstract要約: ローカル機能帰属メソッドはブラックボックスモデルを説明するのに役立つ。
ほとんどの属性モデルは、入力特徴の重要性と基準値(しばしばベースラインと呼ばれる)を比較する。
最近の研究では、ベースラインが特徴属性の品質に大きな影響を与えることが示されている。
- 参考スコア(独自算出の注目度): 6.700433100198165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-performing predictive models, such as neural nets, usually operate as
black boxes, which raises serious concerns about their interpretability. Local
feature attribution methods help to explain black box models and are therefore
a powerful tool for assessing the reliability and fairness of predictions. To
this end, most attribution models compare the importance of input features with
a reference value, often called baseline. Recent studies show that the baseline
can heavily impact the quality of feature attributions. Yet, we frequently find
simplistic baselines, such as the zero vector, in practice. In this paper, we
show empirically that baselines can significantly alter the discriminative
power of feature attributions. We conduct our analysis on tabular data sets,
thus complementing recent works on image data. Besides, we propose a new
taxonomy of baseline methods. Our experimental study illustrates the
sensitivity of popular attribution models to the baseline, thus laying the
foundation for a more in-depth discussion on sensible baseline methods for
tabular data.
- Abstract(参考訳): ニューラルネットのような高性能な予測モデルは通常ブラックボックスとして動作し、解釈可能性に関する深刻な懸念を引き起こす。
局所的特徴帰属法はブラックボックスモデルの説明に役立つため、予測の信頼性と公平性を評価する強力なツールである。
この目的のために、ほとんどの帰属モデルは、入力特徴の重要性と、しばしばベースラインと呼ばれる参照値を比較する。
最近の研究では、ベースラインが特徴属性の品質に大きな影響を与えることが示されている。
しかし、実際には、ゼロベクトルのような単純化されたベースラインをしばしば見つける。
本稿では,ベースラインが特徴属性の識別能力を大きく変えることを実証的に示す。
我々は,最近の画像データ研究を補完し,表付きデータセットの分析を行う。
さらに,ベースライン法の新しい分類法を提案する。
本研究は,一般的な帰属モデルのベースラインに対する感度を実証し,表データに対する可視的ベースライン法に関するより深い議論の基盤となった。
関連論文リスト
- Enhancement of Approximation Spaces by the Use of Primals and Neighborhood [0.0]
近隣と原始」からのインスピレーションを引き出す4つの新しい一般化された粗集合モデルを導入する。
我々は、現在のモデルは、粗い集合モデルに関連するほとんどすべての重要な側面を保存できると主張している。
また、我々の日常的な健康に関する問題に対して定義する新たな戦略が、より正確な発見をもたらすことも示している。
論文 参考訳(メタデータ) (2024-10-23T18:49:13Z) - BECAUSE: Bilinear Causal Representation for Generalizable Offline Model-based Reinforcement Learning [39.090104460303415]
オフラインモデルベース強化学習(MBRL)は、事前コンパイルされたデータセットを使用してモデルとポリシーを学ぶことにより、データ効率を向上させる。
本稿は、このミスマッチの主な原因を、オフラインデータに存在する根底にある共同設立者から特定する。
両状態の因果表現をキャプチャするアルゴリズムである textbfBilintextbfEar textbfCAUSal rtextbfEpresentation (BECAUSE) を導入する。
論文 参考訳(メタデータ) (2024-07-15T17:59:23Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Boxhead: A Dataset for Learning Hierarchical Representations [16.036906124241835]
階層的に構造化された基底構造生成因子を持つデータセットであるBoxheadを紹介する。
階層的モデルは一般に階層的に配置された因子の非絡み合いという点で単層VAEよりも優れる。
論文 参考訳(メタデータ) (2021-10-07T17:15:25Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。