論文の概要: Respect the model: Fine-grained and Robust Explanation with Sharing
Ratio Decomposition
- arxiv url: http://arxiv.org/abs/2402.03348v1
- Date: Thu, 25 Jan 2024 07:20:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 15:39:12.725725
- Title: Respect the model: Fine-grained and Robust Explanation with Sharing
Ratio Decomposition
- Title(参考訳): モデルを考える:共有比分解による細粒度とロバストな説明
- Authors: Sangyu Han, Yearim Kim, Nojun Kwak
- Abstract要約: SRD(Sharing Ratio Decomposition)と呼ばれる新しいeXplainable AI(XAI)手法を提案する。
また、アクティベーション・パタン・オンリー予測(APOP)と呼ばれる興味深い観察結果を導入し、不活性ニューロンの重要性を強調した。
- 参考スコア(独自算出の注目度): 29.491712784788188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The truthfulness of existing explanation methods in authentically elucidating
the underlying model's decision-making process has been questioned. Existing
methods have deviated from faithfully representing the model, thus susceptible
to adversarial attacks. To address this, we propose a novel eXplainable AI
(XAI) method called SRD (Sharing Ratio Decomposition), which sincerely reflects
the model's inference process, resulting in significantly enhanced robustness
in our explanations. Different from the conventional emphasis on the neuronal
level, we adopt a vector perspective to consider the intricate nonlinear
interactions between filters. We also introduce an interesting observation
termed Activation-Pattern-Only Prediction (APOP), letting us emphasize the
importance of inactive neurons and redefine relevance encapsulating all
relevant information including both active and inactive neurons. Our method,
SRD, allows for the recursive decomposition of a Pointwise Feature Vector
(PFV), providing a high-resolution Effective Receptive Field (ERF) at any
layer.
- Abstract(参考訳): モデル決定過程を真に解明する既存の説明手法の真偽は疑問視されている。
既存の手法はモデルを忠実に表現することから逸脱しており、従って敵対的な攻撃に影響を受けやすい。
そこで本研究では,モデルの推論過程を忠実に反映し,説明におけるロバスト性を大幅に向上させる,srd(shareing ratio decomposition)と呼ばれる新しい説明可能なai(xai)手法を提案する。
従来の神経レベルでの強調と異なり、フィルタ間の複雑な非線形相互作用を考えるためにベクトル的視点を採用する。
また,アクティベーションパターンのみ予測(apop)という興味深い観察手法を導入し,不活性ニューロンの重要性を強調し,活性ニューロンと不活性ニューロンの両方を含むすべての関連情報をカプセル化する。
本手法は,任意の層において高分解能有効受容場(erf)を提供する点的特徴ベクトル(pfv)の再帰的分解を可能にする。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [46.20447646518049]
モデルアーキテクチャを変更することなく特徴可視化を操作する新しい手法を提案する。
いくつかのニューラルネットワークモデルにおいて,本手法の有効性を評価し,特定のニューロンの機能を隠す能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Observation-Guided Diffusion Probabilistic Models [45.60819186624553]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散モデルを提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強い拡散モデルベースラインに対する多種多様な推論手法を用いた学習アルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - ODE-based Recurrent Model-free Reinforcement Learning for POMDPs [15.030970899252601]
我々は,POMDPを解くために,新しいODEベースのリカレントモデルとモデルレス強化学習フレームワークを組み合わせる。
様々なPO連続制御タスクとメタRLタスクにまたがる手法の有効性を実験的に実証した。
提案手法は,不規則にサンプリングされた時系列をモデル化するODEの能力のため,不規則な観測に対して頑健であることを示す。
論文 参考訳(メタデータ) (2023-09-25T12:13:56Z) - Convex Latent-Optimized Adversarial Regularizers for Imaging Inverse
Problems [8.33626757808923]
本稿では,新しいデータ駆動型パラダイムであるConvex Latent-d Adrial Regularizers (CLEAR)を紹介する。
CLEARは、ディープラーニング(DL)と変分正規化の融合を表す。
本手法は従来型のデータ駆動手法と従来型の正規化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-09-17T12:06:04Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。