論文の概要: A new interpretable unsupervised anomaly detection method based on
residual explanation
- arxiv url: http://arxiv.org/abs/2103.07953v1
- Date: Sun, 14 Mar 2021 15:35:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:28:20.877487
- Title: A new interpretable unsupervised anomaly detection method based on
residual explanation
- Title(参考訳): 残差説明に基づく新しい解釈不能非監視異常検出法
- Authors: David F. N. Oliveira, Lucio F. Vismari, Alexandre M. Nascimento, Jorge
R. de Almeida Jr, Paulo S. Cugnasca, Joao B. Camargo Jr, Leandro Almeida,
Rafael Gripp, Marcelo Neves
- Abstract要約: 本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 47.187609203210705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the superior performance in modeling complex patterns to address
challenging problems, the black-box nature of Deep Learning (DL) methods impose
limitations to their application in real-world critical domains. The lack of a
smooth manner for enabling human reasoning about the black-box decisions hinder
any preventive action to unexpected events, in which may lead to catastrophic
consequences. To tackle the unclearness from black-box models, interpretability
became a fundamental requirement in DL-based systems, leveraging trust and
knowledge by providing ways to understand the model's behavior. Although a
current hot topic, further advances are still needed to overcome the existing
limitations of the current interpretability methods in unsupervised DL-based
models for Anomaly Detection (AD). Autoencoders (AE) are the core of
unsupervised DL-based for AD applications, achieving best-in-class performance.
However, due to their hybrid aspect to obtain the results (by requiring
additional calculations out of network), only agnostic interpretable methods
can be applied to AE-based AD. These agnostic methods are computationally
expensive to process a large number of parameters. In this paper we present the
RXP (Residual eXPlainer), a new interpretability method to deal with the
limitations for AE-based AD in large-scale systems. It stands out for its
implementation simplicity, low computational cost and deterministic behavior,
in which explanations are obtained through the deviation analysis of
reconstructed input features. In an experiment using data from a real
heavy-haul railway line, the proposed method achieved superior performance
compared to SHAP, demonstrating its potential to support decision making in
large scale critical systems.
- Abstract(参考訳): 難しい問題に対処するために複雑なパターンをモデリングする際の優れたパフォーマンスにもかかわらず、Deep Learning(DL)メソッドのブラックボックスの性質は、現実のクリティカルドメインにおけるアプリケーションに制限を課している。
ブラックボックスの決定に対する人間の推論を可能にする円滑な方法の欠如は、予期せぬ出来事に対する予防措置を妨げ、破滅的な結果をもたらす可能性がある。
ブラックボックスモデルの不明瞭さに取り組むため、解釈性はdlベースのシステムにおいて基本的な要件となり、モデルの振る舞いを理解する方法を提供することで、信頼と知識を活用した。
現在のホットなトピックですが、監視されていないDLベースの異常検出モデル(AD)における現在の解釈可能性メソッドの既存の制限を克服するには、さらなる進歩が必要です。
オートエンコーダ(AE)は、ADアプリケーションのための教師なしDLベースのコアであり、クラス内で最高のパフォーマンスを達成する。
しかし、この結果を得るためのハイブリッドな側面(ネットワーク外での追加計算を必要とする)のため、AEベースのADに適用できるのは非依存の解釈可能な方法のみである。
これらの非依存メソッドは、多数のパラメータを処理するのに計算的に高価である。
本稿では,大規模システムにおけるAEベースのADの限界に対処する新しい解釈可能性手法であるRXP(Residual eXPlainer)を提案する。
実装の単純化、計算コストの低減、および再構成された入力機能の偏差解析によって説明が得られる決定論的な振る舞いが際立っています。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示し,大規模クリティカルシステムにおける意思決定を支援する可能性を実証した。
関連論文リスト
- MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - QUCE: The Minimisation and Quantification of Path-Based Uncertainty for Generative Counterfactual Explanations [1.649938899766112]
Quantified Uncertainty Counterfactual Explanations (QUCE) は、経路の不確実性を最小化する手法である。
そこで本研究では,QUCEが説明文の提示時に不確実性を定量化し,より確実な逆実例を生成することを示す。
本稿では,QUCE法の性能を,経路に基づく説明法と生成対実例の両方の競合手法と比較することによって示す。
論文 参考訳(メタデータ) (2024-02-27T14:00:08Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - Multicriteria interpretability driven Deep Learning [0.0]
ディープラーニングの手法はパフォーマンスで有名だが、その解釈可能性の欠如は、高い文脈での学習を妨げている。
近年のモデル手法では、モデルの内部動作をリバースエンジニアリングすることで、ポストホック解釈可能性法を提供することでこの問題に対処している。
本稿では,目的関数に知識を注入することで,モデルの結果に特徴的影響を制御できるマルチクレータ非依存手法を提案する。
論文 参考訳(メタデータ) (2021-11-28T09:41:13Z) - Logic Constraints to Feature Importances [17.234442722611803]
AIモデルの"ブラックボックス"の性質は、診断技術や自律的ガイドなど、高度な分野における信頼性の高い応用の限界であることが多い。
近年の研究では、適切な解釈可能性のレベルが、モデル信頼性というより一般的な概念を強制できることが示されている。
本論文の基本的な考え方は,特定のタスクにおける特徴の重要性に関する人間の事前知識を利用して,モデルの適合のフェーズを整合的に支援することである。
論文 参考訳(メタデータ) (2021-10-13T09:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。