論文の概要: Coalitional Bayesian Autoencoders -- Towards explainable unsupervised
deep learning
- arxiv url: http://arxiv.org/abs/2110.10038v1
- Date: Tue, 19 Oct 2021 15:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 16:58:35.941660
- Title: Coalitional Bayesian Autoencoders -- Towards explainable unsupervised
deep learning
- Title(参考訳): Coalitional Bayesian Autoencoders -- 説明可能な教師なしディープラーニングを目指して
- Authors: Bang Xiang Yong and Alexandra Brintrup
- Abstract要約: その結果,BAEの予測は高い相関関係にあり,誤解を招くことが示唆された。
これを軽減するために、エージェントベースのシステム理論にインスパイアされた"Coalitional BAE"が提案されている。
公開条件監視データセットに関する実験は、Coalitional BAEを用いた説明の質の向上を実証している。
- 参考スコア(独自算出の注目度): 78.60415450507706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to improve the explainability of Autoencoder's (AE)
predictions by proposing two explanation methods based on the mean and
epistemic uncertainty of log-likelihood estimate, which naturally arise from
the probabilistic formulation of the AE called Bayesian Autoencoders (BAE). To
quantitatively evaluate the performance of explanation methods, we test them in
sensor network applications, and propose three metrics based on covariate shift
of sensors : (1) G-mean of Spearman drift coefficients, (2) G-mean of
sensitivity-specificity of explanation ranking and (3) sensor explanation
quality index (SEQI) which combines the two aforementioned metrics.
Surprisingly, we find that explanations of BAE's predictions suffer from high
correlation resulting in misleading explanations. To alleviate this, a
"Coalitional BAE" is proposed, which is inspired by agent-based system theory.
Our comprehensive experiments on publicly available condition monitoring
datasets demonstrate the improved quality of explanations using the Coalitional
BAE.
- Abstract(参考訳): 本稿では,BAE (Bayesian Autoencoder) と呼ばれるAEの確率的定式化から自然に生じる対数的推定値の平均的および認識的不確実性に基づく2つの説明手法を提案することにより,オートエンコーダ(AE)予測の妥当性を向上させることを目的とする。
説明手法の性能を定量的に評価するために,センサネットワークアプリケーションでテストを行い,(1)スピアマンドリフト係数のg平均,(2)説明ランキングの感度特異性のg平均,(3)上記の2つの指標を組み合わせたセンサ説明品質指標(seqi)の3つの指標を提案する。
驚くべきことに、baeの予測に関する説明は高い相関関係にあり、誤解を招く説明となる。
これを軽減するために、エージェントベースのシステム理論にインスパイアされた"Coalitional BAE"を提案する。
公開条件監視データセットに関する総合的な実験は、Coalitional BAEを用いた説明の質の向上を実証している。
関連論文リスト
- Uncertainty Quantification for Gradient-based Explanations in Neural Networks [6.9060054915724]
ニューラルネットワークの説明の不確実性を確認するパイプラインを提案する。
このパイプラインを使用して、CIFAR-10、FER+、California Housingデータセットの説明分布を生成する。
修正画素挿入/削除のメトリクスを計算し、生成した説明の質を評価する。
論文 参考訳(メタデータ) (2024-03-25T21:56:02Z) - Anchoring Path for Inductive Relation Prediction in Knowledge Graphs [69.81600732388182]
APSTはAPとCPを統一されたSentence Transformerアーキテクチャの入力として扱う。
我々は3つの公開データセット上でAPSTを評価し、36のトランスダクティブ、インダクティブ、および数ショットの実験的設定のうち30の最先端(SOTA)性能を達成する。
論文 参考訳(メタデータ) (2023-12-21T06:02:25Z) - RDR: the Recap, Deliberate, and Respond Method for Enhanced Language
Understanding [6.738409533239947]
Recap、Deliberate、Respond(RDR)パラダイムは、ニューラルネットワークパイプラインに3つの異なる目的を組み込むことで、この問題に対処する。
これら3つのモデルをカスケードすることにより、ベンチマークをゲームする可能性を軽減し、基盤となるセマンティックパターンをキャプチャする堅牢な方法を確立する。
その結果,標準基準値の最大2%向上とともに,競争基準値と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-12-15T16:41:48Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Explainer Divergence Scores (EDS): Some Post-Hoc Explanations May be
Effective for Detecting Unknown Spurious Correlations [4.223964614888875]
ディープニューラルネット(DNN)における突発的相関の検出にはポストホック説明器が有効でない可能性がある
この設定には、既存の評価フレームワークに深刻な弱点があることが示されています。
本稿では,説明者評価のための情報理論アプローチに基づく新しい評価手法,EDS(Explainer Divergence Scores)を提案する。
論文 参考訳(メタデータ) (2022-11-14T15:52:21Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - ESAD: End-to-end Deep Semi-supervised Anomaly Detection [85.81138474858197]
正規データと異常データの間のKL偏差を計測する新たな目的関数を提案する。
提案手法は,複数のベンチマークデータセットの最先端性能を著しく上回っている。
論文 参考訳(メタデータ) (2020-12-09T08:16:35Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。