論文の概要: Valid P-Value for Deep Learning-Driven Salient Region
- arxiv url: http://arxiv.org/abs/2301.02437v1
- Date: Fri, 6 Jan 2023 09:51:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:14:43.436021
- Title: Valid P-Value for Deep Learning-Driven Salient Region
- Title(参考訳): 深層学習駆動サルエント領域における有効なp値
- Authors: Daiki Miwa, Vo Nguyen Le Duy, Ichiro Takeuchi
- Abstract要約: p-値の形で正則領域の信頼性を定量化する手法を提案する。
提案手法は,有意な領域の偽陽性検出の確率を確実に制御できる。
- 参考スコア(独自算出の注目度): 21.184555512370085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various saliency map methods have been proposed to interpret and explain
predictions of deep learning models. Saliency maps allow us to interpret which
parts of the input signals have a strong influence on the prediction results.
However, since a saliency map is obtained by complex computations in deep
learning models, it is often difficult to know how reliable the saliency map
itself is. In this study, we propose a method to quantify the reliability of a
salient region in the form of p-values. Our idea is to consider a salient
region as a selected hypothesis by the trained deep learning model and employ
the selective inference framework. The proposed method can provably control the
probability of false positive detections of salient regions. We demonstrate the
validity of the proposed method through numerical examples in synthetic and
real datasets. Furthermore, we develop a Keras-based framework for conducting
the proposed selective inference for a wide class of CNNs without additional
implementation cost.
- Abstract(参考訳): 深層学習モデルの予測を解釈し,説明するために,様々なサリエンシマップ手法が提案されている。
精度マップにより、入力信号のどの部分が予測結果に強い影響を与えるかを解釈できる。
しかし、深層学習モデルにおける複雑な計算によってサリエンシマップが得られるため、サリエンシマップ自体の信頼性を知ることはしばしば困難である。
そこで本研究では,p値の形で有意な領域の信頼性を定量化する手法を提案する。
本研究は,訓練された深層学習モデルによって選択された仮説としてサルエント領域を考察し,選択推論フレームワークを採用することを目的とする。
提案手法は,有意な領域の偽陽性検出の確率を確実に制御できる。
提案手法の有効性を,合成データセットと実データセットの数値例を用いて示す。
さらに,提案するCNNに対して,実装コストを伴わずに選択推論を行うKerasベースのフレームワークを開発した。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Uncertainty Quantification in Deep Neural Networks through Statistical
Inference on Latent Space [0.0]
ネットワークに供給されたデータポイントの潜在空間表現を利用して予測精度を評価するアルゴリズムを開発した。
一般的に使われている手法が大半が過信である合成データセットについて述べる。
対照的に,本手法は,不正確な予測を行うようなアウト・オブ・ディストリビューション・データ・ポイントを検出できるため,アウトレーヤの自動検出に役立てることができる。
論文 参考訳(メタデータ) (2023-05-18T09:52:06Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Building Reliable Explanations of Unreliable Neural Networks: Locally
Smoothing Perspective of Model Interpretation [0.0]
本稿では,ニューラルネットワークの予測を確実に説明するための新しい手法を提案する。
本手法は,モデル予測の損失関数における平滑な景観の仮定に基づいて構築される。
論文 参考訳(メタデータ) (2021-03-26T08:52:11Z) - BDNNSurv: Bayesian deep neural networks for survival analysis using
pseudo values [7.707091943385522]
生存データのモデル化と予測のためのベイズ階層的ディープニューラルネットワークモデルを提案する。
従来研究した手法と比較して,提案手法は生存確率のポイント推定を提供することができる。
提案手法を実装したpythonコードが提供されている。
論文 参考訳(メタデータ) (2021-01-07T20:18:43Z) - Ramifications of Approximate Posterior Inference for Bayesian Deep
Learning in Adversarial and Out-of-Distribution Settings [7.476901945542385]
ベイジアン深層学習モデルが従来のニューラルネットワークよりわずかに優れていることを示す。
予備的な調査は、初期化、アーキテクチャ、アクティベーション関数の選択によるバイアスの潜在的固有の役割を示している。
論文 参考訳(メタデータ) (2020-09-03T16:58:15Z) - A generalizable saliency map-based interpretation of model outcome [1.14219428942199]
そこで本研究では,モデルの入力と出力を用いてサリエンシマップを生成する非侵襲的解釈可能性手法を提案する。
実験の結果,本手法は入力の正解部分を89%の精度で再現可能であることがわかった。
論文 参考訳(メタデータ) (2020-06-16T20:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。