論文の概要: AcME-AD: Accelerated Model Explanations for Anomaly Detection
- arxiv url: http://arxiv.org/abs/2403.01245v1
- Date: Sat, 2 Mar 2024 16:11:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:42:18.016859
- Title: AcME-AD: Accelerated Model Explanations for Anomaly Detection
- Title(参考訳): AcME-AD: 異常検出のための加速モデル記述法
- Authors: Valentina Zaccaria, David Dandolo, Chiara Masiero, Gian Antonio Susto
- Abstract要約: AcME-ADは相互運用性のためのモデルに依存しない効率的なソリューションです。
ローカルな特徴重要度スコアと、各異常に寄与する要因を隠蔽するWhat-if分析ツールを提供する。
本稿では,AcME-ADの基礎とその既存手法に対する利点を解明し,合成データと実データの両方を用いて,その有効性を検証する。
- 参考スコア(独自算出の注目度): 5.702288833888639
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Pursuing fast and robust interpretability in Anomaly Detection is crucial,
especially due to its significance in practical applications. Traditional
Anomaly Detection methods excel in outlier identification but are often
black-boxes, providing scant insights into their decision-making process. This
lack of transparency compromises their reliability and hampers their adoption
in scenarios where comprehending the reasons behind anomaly detection is vital.
At the same time, getting explanations quickly is paramount in practical
scenarios. To bridge this gap, we present AcME-AD, a novel approach rooted in
Explainable Artificial Intelligence principles, designed to clarify Anomaly
Detection models for tabular data. AcME-AD transcends the constraints of
model-specific or resource-heavy explainability techniques by delivering a
model-agnostic, efficient solution for interoperability. It offers local
feature importance scores and a what-if analysis tool, shedding light on the
factors contributing to each anomaly, thus aiding root cause analysis and
decision-making. This paper elucidates AcME-AD's foundation, its benefits over
existing methods, and validates its effectiveness with tests on both synthetic
and real datasets. AcME-AD's implementation and experiment replication code is
accessible in a public repository.
- Abstract(参考訳): 異常検出における高速かつ堅牢な解釈可能性の獲得は,特に実用化における意義から重要である。
従来の異常検出手法は、異常識別に優れているが、しばしばブラックボックスであり、意思決定プロセスに関する見識が乏しい。
この透明性の欠如は、信頼性を損なうと同時に、異常検出の背景にある理由を理解できないシナリオへの採用を妨げます。
同時に、説明を素早く得ることが、実用的なシナリオでは最重要となる。
このギャップを埋めるために、表データに対する異常検出モデルを明らかにするために設計された、説明可能な人工知能の原則に根ざした新しいアプローチであるAcME-ADを提案する。
AcME-ADは、相互運用性のためのモデルに依存しない効率的なソリューションを提供することによって、モデル固有またはリソース重大な説明可能性技術の制約を超越します。
ローカルな特徴重要度スコアとWhat-if分析ツールを提供し、各異常に寄与する要因に光を当て、根本原因分析と意思決定を支援する。
本稿では,AcME-ADの基礎とその既存手法に対する利点を解明し,合成データと実データの両方を用いて,その有効性を検証する。
AcME-ADの実装と実験用のレプリケーションコードは、パブリックリポジトリからアクセス可能である。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - MeLIAD: Interpretable Few-Shot Anomaly Detection with Metric Learning and Entropy-based Scoring [2.394081903745099]
本稿では,新たな異常検出手法であるMeLIADを提案する。
MeLIADはメートル法学習に基づいており、真の異常の事前分布仮定に頼ることなく、設計による解釈可能性を達成する。
解釈可能性の定量的かつ定性的な評価を含む5つの公開ベンチマークデータセットの実験は、MeLIADが異常検出とローカライゼーション性能の改善を達成することを実証している。
論文 参考訳(メタデータ) (2024-09-20T16:01:43Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Enhancing Interpretability and Generalizability in Extended Isolation Forests [5.139809663513828]
ExIFFI (Extended isolated Forest Feature Importance) は、EIF(Extended isolated Forest)モデルによる予測を説明する手法である。
EIF+は、修正された分割戦略により、見えない異常を検出するモデルの能力を高めるように設計されている。
ExIFFIは、11の現実世界のデータセットのうち8つで、他の教師なしの解釈可能性メソッドよりも優れています。
論文 参考訳(メタデータ) (2023-10-09T07:24:04Z) - Causality-Aware Local Interpretable Model-Agnostic Explanations [7.412445894287709]
本稿では,インスタンスを取り巻くデータ内の明確な因果関係をエンコードする,広く使われている局所的およびモデルに依存しない説明器の拡張を提案する。
提案手法は,ブラックボックスモデルのメカニズムと生成した説明の一貫性と信頼性を忠実に再現する上で,元の手法を克服する。
論文 参考訳(メタデータ) (2022-12-10T10:12:27Z) - Data-Efficient and Interpretable Tabular Anomaly Detection [54.15249463477813]
本稿では,ホワイトボックスモデルクラスである一般化付加モデルを適用し,異常を検出する新しいフレームワークを提案する。
さらに、提案フレームワークであるDIADは、ラベル付きデータの少量を組み込んで、半教師付き設定における異常検出性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2022-03-03T22:02:56Z) - MUC-driven Feature Importance Measurement and Adversarial Analysis for
Random Forest [1.5896078006029473]
我々は形式的手法と論理的推論を活用して、ランダムフォレスト(RF)の予測を説明する新しいモデル固有の方法を開発した。
提案手法は, 最小不飽和コア(MUC)を中心に, 特徴重要度, 局所的・グローバル的側面, および対向的サンプル分析に関する包括的ソリューションを提供する。
提案手法はユーザ中心のレポートを作成でき,リアルタイムアプリケーションにレコメンデーションを提供するのに役立つ。
論文 参考訳(メタデータ) (2022-02-25T06:15:47Z) - A Simple Information-Based Approach to Unsupervised Domain-Adaptive
Aspect-Based Sentiment Analysis [58.124424775536326]
本稿では,相互情報に基づくシンプルだが効果的な手法を提案し,それらの用語を抽出する。
実験の結果,提案手法はクロスドメインABSAの最先端手法よりも4.32%高い性能を示した。
論文 参考訳(メタデータ) (2022-01-29T10:18:07Z) - A new interpretable unsupervised anomaly detection method based on
residual explanation [47.187609203210705]
本稿では,大規模システムにおけるAEベースのADの制限に対処する新しい解釈可能性手法であるRXPを提案する。
実装の単純さ、計算コストの低さ、決定論的振る舞いが特徴である。
実鉄道路線のデータを用いた実験において,提案手法はSHAPよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-14T15:35:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。