論文の概要: Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions
- arxiv url: http://arxiv.org/abs/2306.16431v1
- Date: Wed, 28 Jun 2023 15:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 16:15:51.558350
- Title: Increasing Performance And Sample Efficiency With Model-agnostic
Interactive Feature Attributions
- Title(参考訳): モデル非依存な対話的特徴帰属による性能向上とサンプル効率向上
- Authors: Joran Michiels, Maarten De Vos, Johan Suykens
- Abstract要約: 我々は,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供し,その複雑なモデルにおいて,完全に異なる属性を強制する。
提案手法は,修正された説明に基づいてトレーニングデータセットを増強することで,モデルの性能を著しく向上させることができることを示す。
- 参考スコア(独自算出の注目度): 3.0655581300025996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-agnostic feature attributions can provide local insights in complex ML
models. If the explanation is correct, a domain expert can validate and trust
the model's decision. However, if it contradicts the expert's knowledge,
related work only corrects irrelevant features to improve the model. To allow
for unlimited interaction, in this paper we provide model-agnostic
implementations for two popular explanation methods (Occlusion and Shapley
values) to enforce entirely different attributions in the complex model. For a
particular set of samples, we use the corrected feature attributions to
generate extra local data, which is used to retrain the model to have the right
explanation for the samples. Through simulated and real data experiments on a
variety of models we show how our proposed approach can significantly improve
the model's performance only by augmenting its training dataset based on
corrected explanations. Adding our interactive explanations to active learning
settings increases the sample efficiency significantly and outperforms existing
explanatory interactive strategies. Additionally we explore how a domain expert
can provide feature attributions which are sufficiently correct to improve the
model.
- Abstract(参考訳): モデルに依存しない特徴属性は、複雑なMLモデルに局所的な洞察を与えることができる。
説明が正しければ、ドメインエキスパートはモデルの判断を検証し、信頼することができる。
しかし、専門家の知識と矛盾する場合、関連する作業はモデルを改善するために無関係な特徴のみを補正する。
本稿では,2つの一般的な説明手法(Occlusion と Shapley の値)に対して,モデルに依存しない実装を提供することにより,複雑なモデルに完全に異なる属性を強制する。
特定のサンプルのセットに対して、修正された特徴属性を使用して追加の局所データを生成し、サンプルの正しい説明をするためにモデルを再トレーニングする。
様々なモデルに関するシミュレーションおよび実データ実験を通じて、提案手法がモデルの性能を大幅に向上させる方法を示し、修正された説明に基づいてトレーニングデータセットを増強する。
アクティブな学習環境にインタラクティブな説明を加えることで、サンプル効率が大幅に向上し、既存の説明的対話戦略よりも優れています。
さらに、ドメインの専門家がモデルを改善するのに十分正しい機能属性を提供する方法についても検討する。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - AttributionScanner: A Visual Analytics System for Metadata-Free
Data-Slicing Based Model Validation [31.19426148651238]
AttributionScannerは、データスライシングベースの機械学習(ML)モデルの検証用に設計されたビジュアル分析システムである。
提案手法は,説明可能なAI(XAI)技術を用いて抽出した説明可能な特徴を利用して,解釈可能なデータスライスを識別する。
我々のフレームワークは、最先端のニューラルネットワーク正規化技術を使用することで、ドメインエキスパートにモデル問題に対処する権限を与えることで、ML開発サイクルを閉じる。
論文 参考訳(メタデータ) (2024-01-12T09:17:32Z) - Model-agnostic Body Part Relevance Assessment for Pedestrian Detection [4.405053430046726]
歩行者検出のための身体部分関連性評価によるコンピュータビジョンコンテキストにおけるサンプリングに基づく説明モデルを用いたフレームワークを提案する。
我々は,KernelSHAPに類似した新しいサンプリングベース手法を導入し,サンプリングサイズを小さくするために,より堅牢性を示し,大規模データセットにおける説明可能性解析に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-27T10:10:25Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate
Decision Stumps [49.97564931094598]
複雑なMLモデルの振る舞いをユーザフレンドリに要約するビジュアル分析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。