論文の概要: Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions
- arxiv url: http://arxiv.org/abs/2306.16431v1
- Date: Wed, 28 Jun 2023 15:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 16:15:51.558350
- Title: Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions
- Title(参考訳): モデル非依存な対話的特徴帰属による性能向上とサンプル効率向上
- Authors: Joran Michiels, Maarten De Vos, Johan Suykens
- Abstract要約: 我々は,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供し,その複雑なモデルにおいて,完全に異なる属性を強制する。
提案手法は,修正された説明に基づいてトレーニングデータセットを増強することで,モデルの性能を著しく向上させることができることを示す。
- 参考スコア(独自算出の注目度): 3.0655581300025996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-agnostic feature attributions can provide local insights in complex ML
models. If the explanation is correct, a domain expert can validate and trust
the model's decision. However, if it contradicts the expert's knowledge,
related work only corrects irrelevant features to improve the model. To allow
for unlimited interaction, in this paper we provide model-agnostic
implementations for two popular explanation methods (Occlusion and Shapley
values) to enforce entirely different attributions in the complex model. For a
particular set of samples, we use the corrected feature attributions to
generate extra local data, which is used to retrain the model to have the right
explanation for the samples. Through simulated and real data experiments on a
variety of models we show how our proposed approach can significantly improve
the model's performance only by augmenting its training dataset based on
corrected explanations. Adding our interactive explanations to active learning
settings increases the sample efficiency significantly and outperforms existing
explanatory interactive strategies. Additionally we explore how a domain expert
can provide feature attributions which are sufficiently correct to improve the
model.
- Abstract(参考訳): モデルに依存しない特徴属性は、複雑なMLモデルに局所的な洞察を与えることができる。
説明が正しければ、ドメインエキスパートはモデルの判断を検証し、信頼することができる。
しかし、専門家の知識と矛盾する場合、関連する作業はモデルを改善するために無関係な特徴のみを補正する。
本稿では,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供することにより,複雑なモデルに完全に異なる属性を強制する。
特定のサンプルのセットに対して、修正された特徴属性を使用して追加の局所データを生成し、サンプルの正しい説明をするためにモデルを再トレーニングする。
様々なモデルに関するシミュレーションおよび実データ実験を通じて、提案手法がモデルの性能を大幅に向上させる方法を示し、修正された説明に基づいてトレーニングデータセットを増強する。
アクティブな学習環境にインタラクティブな説明を加えることで、サンプル効率が大幅に向上し、既存の説明的対話戦略よりも優れています。
さらに、ドメインの専門家がモデルを改善するのに十分正しい機能属性を提供する方法についても検討する。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Model-agnostic Body Part Relevance Assessment for Pedestrian Detection [4.405053430046726]
歩行者検出のための身体部分関連性評価によるコンピュータビジョンコンテキストにおけるサンプリングに基づく説明モデルを用いたフレームワークを提案する。
我々は,KernelSHAPに類似した新しいサンプリングベース手法を導入し,サンプリングサイズを小さくするために,より堅牢性を示し,大規模データセットにおける説明可能性解析に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-27T10:10:25Z) - Evaluating Representations with Readout Model Switching [19.907607374144167]
本稿では,最小記述長(MDL)の原理を用いて評価指標を考案する。
我々は、読み出しモデルのためのハイブリッド離散および連続値モデル空間を設計し、それらの予測を組み合わせるために切替戦略を用いる。
提案手法はオンライン手法で効率的に計算でき,様々なアーキテクチャの事前学習された視覚エンコーダに対する結果を示す。
論文 参考訳(メタデータ) (2023-02-19T14:08:01Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。