論文の概要: A Comprehensive and Reliable Feature Attribution Method: Double-sided
Remove and Reconstruct (DoRaR)
- arxiv url: http://arxiv.org/abs/2310.17945v1
- Date: Fri, 27 Oct 2023 07:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 14:32:51.282674
- Title: A Comprehensive and Reliable Feature Attribution Method: Double-sided
Remove and Reconstruct (DoRaR)
- Title(参考訳): 包括的で信頼性の高い特徴属性法:二重側除去・再構成(DoRaR)
- Authors: Dong Qin, George Amariucai, Daji Qiao, Yong Guan, Shen Fu
- Abstract要約: そこで本稿では,複数の改善手法に基づくDoRaR(Do-sided Remove and Reconstruct)特徴属性法を提案する。
我々は,DoRaR特徴属性法が上記の問題を効果的に回避し,他の最先端特徴属性法よりも優れた特徴セレクタの訓練を支援することを実証した。
- 参考スコア(独自算出の注目度): 3.43406114216767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The limited transparency of the inner decision-making mechanism in deep
neural networks (DNN) and other machine learning (ML) models has hindered their
application in several domains. In order to tackle this issue, feature
attribution methods have been developed to identify the crucial features that
heavily influence decisions made by these black box models. However, many
feature attribution methods have inherent downsides. For example, one category
of feature attribution methods suffers from the artifacts problem, which feeds
out-of-distribution masked inputs directly through the classifier that was
originally trained on natural data points. Another category of feature
attribution method finds explanations by using jointly trained feature
selectors and predictors. While avoiding the artifacts problem, this new
category suffers from the Encoding Prediction in the Explanation (EPITE)
problem, in which the predictor's decisions rely not on the features, but on
the masks that selects those features. As a result, the credibility of
attribution results is undermined by these downsides. In this research, we
introduce the Double-sided Remove and Reconstruct (DoRaR) feature attribution
method based on several improvement methods that addresses these issues. By
conducting thorough testing on MNIST, CIFAR10 and our own synthetic dataset, we
demonstrate that the DoRaR feature attribution method can effectively bypass
the above issues and can aid in training a feature selector that outperforms
other state-of-the-art feature attribution methods. Our code is available at
https://github.com/dxq21/DoRaR.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)や他の機械学習(ML)モデルにおける内部決定機構の限定的な透明性は、いくつかのドメインでの応用を妨げる。
この問題に対処するため、ブラックボックスモデルによる決定に大きく影響を及ぼす重要な特徴を特定するために、特徴属性法が開発されている。
しかし、多くの特徴帰属法には固有の欠点がある。
例えば、特徴帰属手法の1つのカテゴリは、もともと自然のデータポイントに基づいて訓練された分類器を通して、分配外入力を直接供給するアーティファクトの問題に悩まされている。
別の特徴帰属法は、訓練された特徴セレクタと予測器を用いて説明を見つける。
アーティファクトの問題を回避する一方で、この新しいカテゴリは、予測者の決定が特徴ではなく、それらの特徴を選択するマスクに依存するEPITE(Encoding Prediction in the Explanation)問題に悩まされる。
その結果、帰属結果の信頼性はこれらの欠点によって損なわれる。
本研究では,これらの問題に対処するいくつかの改善手法に基づくDoRaR(Double-sided Remove and Reconstruct)特徴属性法を提案する。
MNIST, CIFAR10, および我々の合成データセットの徹底的なテストを行うことで, DoRaR特徴属性法が上記の問題を効果的に回避し, その他の最先端特徴属性法より優れた特徴セレクタの訓練を支援することができることを示した。
私たちのコードはhttps://github.com/dxq21/dorarで利用可能です。
関連論文リスト
- IMO: Greedy Layer-Wise Sparse Representation Learning for Out-of-Distribution Text Classification with Pre-trained Models [56.10157988449818]
本研究は,モデルが1つのソースドメイン上でトレーニングされ,トレーニング中に見つからない複数のターゲットドメイン上でテストされる領域一般化の特定の問題に焦点を当てる。
Invariant features Masks for Out-of-Distribution text classification, to achieve OOD generalization by learning invariant features。
論文 参考訳(メタデータ) (2024-04-21T02:15:59Z) - Exploring Diffusion Time-steps for Unsupervised Representation Learning [72.43246871893936]
拡散時間ステップと隠れ属性を結合する理論的枠組みを構築する。
CelebA、FFHQ、Bedroomのデータセットでは、学習された機能は分類を大幅に改善する。
論文 参考訳(メタデータ) (2024-01-21T08:35:25Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Shielded Representations: Protecting Sensitive Attributes Through
Iterative Gradient-Based Projection [39.16319169760823]
イテレーティブ・グラディエント・ベース・プロジェクション(Iterative Gradient-Based Projection)は、非線形符号化された概念をニューラル表現から除去する新しい方法である。
以上の結果より, IGBPは内因性および外因性評価によるバイアス軽減に有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-17T13:26:57Z) - PARFormer: Transformer-based Multi-Task Network for Pedestrian Attribute
Recognition [23.814762073093153]
4つのモジュールを含むPARFormerという,純粋なトランスフォーマーベースのマルチタスクPARネットワークを提案する。
特徴抽出モジュールでは,特徴抽出のための強力なベースラインを構築し,複数のPARベンチマークで競合する結果を得る。
視点認識モジュールでは、歩行者属性に対する視点の影響を探索し、マルチビューのコントラスト損失を提案する。
属性認識モジュールでは、負の正の不均衡問題を緩和し、属性予測を生成する。
論文 参考訳(メタデータ) (2023-04-14T16:27:56Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Time to Focus: A Comprehensive Benchmark Using Time Series Attribution
Methods [4.9449660544238085]
本論文は時系列解析といくつかの最先端属性手法のベンチマークに焦点をあてる。
本実験では, 勾配および摂動に基づく帰属法について検討した。
その結果,最も適した帰属法を選択することは,所望のユースケースと強く相関していることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T10:06:13Z) - Can contrastive learning avoid shortcut solutions? [88.249082564465]
暗黙的特徴修正(IFM)は、より広い種類の予測的特徴を捉えるために、対照的なモデルを導くために、正と負のサンプルを変更する方法である。
IFMは特徴抑制を低減し、その結果、視覚および医用画像タスクのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-06-21T16:22:43Z) - Do Feature Attribution Methods Correctly Attribute Features? [5.58592454173439]
特徴帰属法は、解釈可能な機械学習で非常に人気がある。
属性」の定義に関する合意はありません。
塩分マップ,合理性,注意の3つの方法を評価した。
論文 参考訳(メタデータ) (2021-04-27T20:35:30Z) - Embedded methods for feature selection in neural networks [0.0]
ニューラルネットワークのようなブラックボックスモデルは、解釈可能性、一般化可能性、これらのモデルのトレーニング時間に悪影響を及ぼす。
パラメータ学習に直接組み込むことのできる特徴選択のための2つの統合的アプローチを提案する。
PFI(Permutation Feature Importance) - 汎用的な特徴ランキング法とランダムなベースライン。
論文 参考訳(メタデータ) (2020-10-12T16:33:46Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。