論文の概要: Instance-wise Causal Feature Selection for Model Interpretation
- arxiv url: http://arxiv.org/abs/2104.12759v1
- Date: Mon, 26 Apr 2021 17:51:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 16:47:04.209241
- Title: Instance-wise Causal Feature Selection for Model Interpretation
- Title(参考訳): モデル解釈のための文脈別因果特徴選択
- Authors: Pranoy Panda, Sai Srinivas Kancheti, Vineeth N Balasubramanian
- Abstract要約: 提案手法は,モデル出力に最も大きな因果効果を持つ入力特徴のサブセットを選択する。
相対的エントロピー距離測定により、特徴のサブセットの因果影響を定量化します。
結果として生じる因果選択はスパーサーであり、シーン内の過度のオブジェクトをカバーします。
- 参考スコア(独自算出の注目度): 16.12500804569801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We formulate a causal extension to the recently introduced paradigm of
instance-wise feature selection to explain black-box visual classifiers. Our
method selects a subset of input features that has the greatest causal effect
on the models output. We quantify the causal influence of a subset of features
by the Relative Entropy Distance measure. Under certain assumptions this is
equivalent to the conditional mutual information between the selected subset
and the output variable. The resulting causal selections are sparser and cover
salient objects in the scene. We show the efficacy of our approach on multiple
vision datasets by measuring the post-hoc accuracy and Average Causal Effect of
selected features on the models output.
- Abstract(参考訳): ブラックボックスの視覚分類器を説明するために、最近導入された例機能選択のパラダイムへの因果拡張を定式化する。
提案手法は,モデル出力に最も大きな因果効果を持つ入力特徴のサブセットを選択する。
特徴のサブセットの因果影響を相対エントロピー距離測度によって定量化する。
ある仮定では、これは選択されたサブセットと出力変数の間の条件付き相互情報と等価である。
結果として得られる因果選択はスパーザーであり、シーン内の突出したオブジェクトをカバーします。
モデル出力に選択した特徴の時間後精度と平均因果効果を測定し,複数の視覚データセットに対するアプローチの有効性を示す。
関連論文リスト
- Revisiting Demonstration Selection Strategies in In-Context Learning [69.43198898396211]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Causal Generative Explainers using Counterfactual Inference: A Case
Study on the Morpho-MNIST Dataset [5.458813674116228]
本稿では,視覚的特徴と因果的要因の影響を研究するために,生成的対実的推論手法を提案する。
我々は,OmnixAIオープンソースツールキットの視覚的説明手法を用いて,提案手法との比較を行った。
このことから,本手法は因果的データセットの解釈に極めて適していることが示唆された。
論文 参考訳(メタデータ) (2024-01-21T04:07:48Z) - Extending Variability-Aware Model Selection with Bias Detection in
Machine Learning Projects [0.7646713951724013]
本稿では,機械学習プロジェクトにおけるバイアス検出による適応変数認識モデル選択手法の拡張について述べる。
提案手法は, モデル選択, 特にバイアスに関連する要因, およびそれらの相互作用に影響を及ぼす因子を明示することによって, 技術の現状を推し進めることを目的としている。
論文 参考訳(メタデータ) (2023-11-23T22:08:29Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - Selecting Treatment Effects Models for Domain Adaptation Using Causal
Knowledge [82.5462771088607]
監視されていないドメイン適応設定下でITE法用に特別に設計された新しいモデル選択メトリックを提案する。
特に,介入効果の予測が対象領域の既知の因果構造を満たすモデルを選択することを提案する。
論文 参考訳(メタデータ) (2021-02-11T21:03:14Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Better Model Selection with a new Definition of Feature Importance [8.914907178577476]
特徴の重要性は、各入力特徴がモデル予測にとってどれほど重要かを測定することを目的としている。
本稿では,モデル選択のための新しいツリーモデル説明手法を提案する。
論文 参考訳(メタデータ) (2020-09-16T14:32:22Z) - Feature Selection from High-Dimensional Data with Very Low Sample Size:
A Cautionary Tale [1.491109220586182]
分類問題において、特徴選択の目的は、元の特徴集合の小さな部分集合を特定することである。
本研究は,このような事例における特徴選択がなぜ望ましくない結果をもたらすかを示す,注意深い物語である。
論文 参考訳(メタデータ) (2020-08-27T10:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。