論文の概要: Toward Faithful Explanations in Acoustic Anomaly Detection
- arxiv url: http://arxiv.org/abs/2601.12660v1
- Date: Mon, 19 Jan 2026 02:16:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.727292
- Title: Toward Faithful Explanations in Acoustic Anomaly Detection
- Title(参考訳): 音響異常検出における忠実な説明に向けて
- Authors: Maab Elrashid, Anthony Deschênes, Cem Subakan, Mirco Ravanelli, Rémi Georges, Michael Morin,
- Abstract要約: 現実の異常検出アプリケーションにおけるユーザ信頼の解釈性は不可欠である。
我々は,標準的なオートエンコーダ (AE) とマスクオートエンコーダ (MAE) を比較する。
MAEは一貫してより忠実で時間的に正確な説明を提供し、真の異常との整合性を示唆している。
- 参考スコア(独自算出の注目度): 21.487734134424187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability is essential for user trust in real-world anomaly detection applications. However, deep learning models, despite their strong performance, often lack transparency. In this work, we study the interpretability of autoencoder-based models for audio anomaly detection, by comparing a standard autoencoder (AE) with a mask autoencoder (MAE) in terms of detection performance and interpretability. We applied several attribution methods, including error maps, saliency maps, SmoothGrad, Integrated Gradients, GradSHAP, and Grad-CAM. Although MAE shows a slightly lower detection, it consistently provides more faithful and temporally precise explanations, suggesting a better alignment with true anomalies. To assess the relevance of the regions highlighted by the explanation method, we propose a perturbation-based faithfulness metric that replaces them with their reconstructions to simulate normal input. Our findings, based on experiments in a real industrial scenario, highlight the importance of incorporating interpretability into anomaly detection pipelines and show that masked training improves explanation quality without compromising performance.
- Abstract(参考訳): 現実の異常検出アプリケーションにおけるユーザ信頼の解釈性は不可欠である。
しかし、ディープラーニングモデルは、高いパフォーマンスにもかかわらず、しばしば透明性を欠いている。
本研究では,音声異常検出のためのオートエンコーダベースモデルの解釈可能性について,標準的なオートエンコーダ(AE)とマスクオートエンコーダ(MAE)を比較して検討する。
SmoothGrad,Integrated Gradients,GradSHAP,Grad-CAMなど,いくつかの属性手法を適用した。
MAEはわずかに低い検出を示すが、一貫してより忠実で時間的に正確な説明を提供し、真の異常との整合性を示唆している。
説明手法により強調された領域の関連性を評価するため,通常の入力をシミュレートする摂動に基づく忠実度尺度を提案する。
本研究は, 実産業シナリオにおける実験に基づいて, 異常検出パイプラインに解釈可能性を導入することの重要性を強調し, マスクトレーニングは, 性能を損なうことなく, 説明品質を向上させることを示す。
関連論文リスト
- Anomaly Detection via Autoencoder Composite Features and NCE [1.2891210250935148]
オートエンコーダ(AE)または生成モデルは、通常入力のデータ分布をモデル化するためにしばしば使用される。
ノイズコントラスト推定(NCE)を訓練したAEと確率モデルの両方が異常検出を行うための非結合型トレーニング手法を提案する。
論文 参考訳(メタデータ) (2025-02-04T01:29:22Z) - MeLIAD: Interpretable Few-Shot Anomaly Detection with Metric Learning and Entropy-based Scoring [2.394081903745099]
本稿では,新たな異常検出手法であるMeLIADを提案する。
MeLIADはメートル法学習に基づいており、真の異常の事前分布仮定に頼ることなく、設計による解釈可能性を達成する。
解釈可能性の定量的かつ定性的な評価を含む5つの公開ベンチマークデータセットの実験は、MeLIADが異常検出とローカライゼーション性能の改善を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-20T16:01:43Z) - GeneralAD: Anomaly Detection Across Domains by Attending to Distorted Features [68.14842693208465]
GeneralADは、意味的、ほぼ分布的、産業的設定で動作するように設計された異常検出フレームワークである。
本稿では,ノイズ付加やシャッフルなどの簡単な操作を施した自己教師付き異常生成モジュールを提案する。
提案手法を10のデータセットに対して広範囲に評価し,6つの実験結果と,残りの6つの実験結果を得た。
論文 参考訳(メタデータ) (2024-07-17T09:27:41Z) - Detecting Driver Drowsiness as an Anomaly Using LSTM Autoencoders [0.0]
LSTMオートエンコーダをベースとしたアーキテクチャは,ResNet-34を特徴抽出器として使用する。
提案モデルでは,曲線下0.8740領域の検出率を実現し,特定のシナリオにおいて大幅な改善が可能である。
論文 参考訳(メタデータ) (2022-09-12T14:25:07Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Interpreting Rate-Distortion of Variational Autoencoder and Using Model
Uncertainty for Anomaly Detection [5.491655566898372]
表現学習による教師なし異常検出のためのスケーラブルな機械学習システムを構築した。
本稿では,情報理論の観点からVAEを再考し,再構成誤差を用いた理論的基礎を提供する。
ベンチマークデータセットに対するアプローチの競合性能を実証的に示す。
論文 参考訳(メタデータ) (2020-05-05T00:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。