論文の概要: Maximum Entropy Baseline for Integrated Gradients
- arxiv url: http://arxiv.org/abs/2204.05948v1
- Date: Tue, 12 Apr 2022 17:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 12:13:24.700420
- Title: Maximum Entropy Baseline for Integrated Gradients
- Title(参考訳): 積分勾配に対する最大エントロピーベースライン
- Authors: Hanxiao Tan
- Abstract要約: 統合グラディエンス(IG)は、利用可能な最も一般的な説明可能性の方法の1つである。
本研究では、新しい一様基底線、すなわち最大エントロピー基底線を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrated Gradients (IG), one of the most popular explainability methods
available, still remains ambiguous in the selection of baseline, which may
seriously impair the credibility of the explanations. This study proposes a new
uniform baseline, i.e., the Maximum Entropy Baseline, which is consistent with
the "uninformative" property of baselines defined in IG. In addition, we
propose an improved ablating evaluation approach incorporating the new
baseline, where the information conservativeness is maintained. We explain the
linear transformation invariance of IG baselines from an information
perspective. Finally, we assess the reliability of the explanations generated
by different explainability methods and different IG baselines through
extensive evaluation experiments.
- Abstract(参考訳): 最も一般的な説明可能性の方法の一つである統合勾配(ig)は、依然としてベースラインの選択において曖昧であり、説明の信頼性を著しく損なう可能性がある。
本研究では、IGで定義された基底線の「非形式的」性質と整合性を持つ、新しい一様基底線、すなわち最大エントロピー基底線を提案する。
また,情報保存性が維持される新しいベースラインを組み込んだアブレーション評価手法を提案する。
本稿では,情報の観点からIGベースラインの線形変換不変性を説明する。
最後に,説明可能性の異なる方法とigベースラインの異なる説明の信頼性を広範囲な評価実験により評価する。
関連論文リスト
- Differentiable Information Bottleneck for Deterministic Multi-view Clustering [9.723389925212567]
我々は、決定論的かつ分析的なMVCソリューションを提供する新しい微分可能情報ボトルネック(DIB)手法を提案する。
具体的には、まず、正規化されたカーネルグラム行列を利用して高次元空間の相互情報を直接適合させることを提案する。
そして、新たな相互情報測定に基づいて、解析勾配を持つ決定論的多視点ニューラルネットワークを明示的にトレーニングし、IBの原理をパラメータ化する。
論文 参考訳(メタデータ) (2024-03-23T02:13:22Z) - A New Baseline Assumption of Integated Gradients Based on Shaply value [31.2051113305947]
統合グラディエンス(IG)は、ディープニューラルネットワーク(DNN)の入力特徴に予測をマッピングする技術である。
単一のベースラインを利用する標準的なアプローチは、しばしば不十分であり、複数のベースラインの必要性を招きかねない。
そこで本研究では,Shapley値プロセスに比例サンプリングを用いたShapley Integrated Gradients (SIG) と呼ばれる新しいベースライン手法を開発した。
論文 参考訳(メタデータ) (2023-10-07T14:19:07Z) - The Role of Baselines in Policy Gradient Optimization [83.42050606055822]
Emphstateのバリューベースラインが、オン・ポリティクスを可能にしていることを示す。
世界的な最適な政策勾配(NPG)に収束する。
O (1/t) レート勾配でのポリシー。
値ベースラインの主な効果は、その分散ではなく、更新のアグレッシブさをthabfreduceすることにある。
論文 参考訳(メタデータ) (2023-01-16T06:28:00Z) - Deterministic Decoupling of Global Features and its Application to Data
Analysis [0.0]
部分多様体上の変換の定義に基づく新しい定式化を提案する。
これらの変換を通じて正規化を定義し、それを実証することで、微分可能な特徴を分離することができる。
本手法を,グローバルな記述子に基づく回帰・分類問題に対して,元のデータ領域とフィルタバンクの出力に適用する。
論文 参考訳(メタデータ) (2022-07-05T15:54:39Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Inference-InfoGAN: Inference Independence via Embedding Orthogonal Basis
Expansion [2.198430261120653]
解離学習は、生成モデルが一般的な戦略である独立かつ解釈可能な潜在変数を構築することを目的としている。
本稿では,直交基底拡張(OBE)をInfoGANネットワークに組み込むことで,新しいGANベースの非絡み合いフレームワークを提案する。
我々の推論情報GANは、モデル微調整なしで、FactVAE、分離されたferenceAttribute Predictability(SAP)、Mutual Information Gap(MIG)、およびVP(VP)の指標で高い歪みスコアを得る。
論文 参考訳(メタデータ) (2021-10-02T11:54:23Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。