論文の概要: A general-purpose method for applying Explainable AI for Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2207.11564v1
- Date: Sat, 23 Jul 2022 17:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:37:33.141358
- Title: A general-purpose method for applying Explainable AI for Anomaly
Detection
- Title(参考訳): 説明可能なaiを異常検出に適用する汎用手法
- Authors: John Sipple and Abdou Youssef
- Abstract要約: 説明可能なAI(XAI)の必要性は十分に確立されているが、教師付き学習パラダイム以外では比較的公表されていない。
本稿では、教師なし異常検出のタスクに説明可能性と解釈可能性を適用するための原則的なアプローチに焦点を当てる。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need for explainable AI (XAI) is well established but relatively little
has been published outside of the supervised learning paradigm. This paper
focuses on a principled approach to applying explainability and
interpretability to the task of unsupervised anomaly detection. We argue that
explainability is principally an algorithmic task and interpretability is
principally a cognitive task, and draw on insights from the cognitive sciences
to propose a general-purpose method for practical diagnosis using explained
anomalies. We define Attribution Error, and demonstrate, using real-world
labeled datasets, that our method based on Integrated Gradients (IG) yields
significantly lower attribution errors than alternative methods.
- Abstract(参考訳): 説明可能なAI(XAI)の必要性は十分に確立されているが、教師付き学習パラダイム以外では比較的公表されていない。
本稿では,教師なし異常検出のタスクに説明可能性と解釈可能性を適用するための原理的アプローチについて述べる。
我々は、説明可能性は主にアルゴリズム的課題であり、解釈可能性は主に認知的課題であり、認知科学からの洞察に基づいて説明異常を用いた実用的な診断方法を提案する。
我々は帰属誤差を定義し,実世界のラベル付きデータセットを用いて,統合勾配(ig)に基づく手法が代替法に比べて有意に低い帰属誤差をもたらすことを示す。
関連論文リスト
- AcME-AD: Accelerated Model Explanations for Anomaly Detection [5.702288833888639]
AcME-ADは相互運用性のためのモデルに依存しない効率的なソリューションです。
ローカルな特徴重要度スコアと、各異常に寄与する要因を隠蔽するWhat-if分析ツールを提供する。
本稿では,AcME-ADの基礎とその既存手法に対する利点を解明し,合成データと実データの両方を用いて,その有効性を検証する。
論文 参考訳(メタデータ) (2024-03-02T16:11:58Z) - PUAD: Frustratingly Simple Method for Robust Anomaly Detection [0.0]
対象の誤数のような論理的異常は空間的特徴写像によってうまく表現できないと我々は主張する。
本稿では, 特徴空間上に, 最先端の再構成に基づくアプローチに対して, 簡単な分布外検出手法を組み込む手法を提案する。
本手法は,MVTec LOCO ADデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:57:31Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Framing Algorithmic Recourse for Anomaly Detection [18.347886926848563]
我々は,タブラルデータ(CARAT)における異常に対する文脈保存型アルゴリズムレコースを提案する。
CARATはトランスフォーマーベースのエンコーダデコーダモデルを用いて、低い確率で特徴を見つけることで異常を説明する。
異常なインスタンス内の特徴の全体的コンテキストを使用して、強調された特徴を変更することによって、意味的に一貫性のある反事実が生成される。
論文 参考訳(メタデータ) (2022-06-29T03:30:51Z) - Challenges in Applying Explainability Methods to Improve the Fairness of
NLP Models [7.022948483613113]
説明可能な人工知能(XAI)の手法へのモチベーションは、しばしばバイアスの検出、定量化、緩和を含む。
本稿では,NLP研究における説明可能性と公正性の傾向を概観し,バイアスの検出・緩和に説明可能性手法が適用されている現状を検証し,公平性問題に対処する上でXAI手法がより広く使用されることを防ぐ障壁について検討する。
論文 参考訳(メタデータ) (2022-06-08T15:09:04Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Integrating Prior Knowledge in Post-hoc Explanations [3.6066164404432883]
ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T13:09:53Z) - Leveraging Unlabeled Data for Entity-Relation Extraction through
Probabilistic Constraint Satisfaction [54.06292969184476]
シンボリックドメイン知識の存在下でのエンティティ関係抽出の問題を研究する。
本手法では,論理文の正確な意味を捉える意味的損失を用いる。
低データ体制に焦点をあてて、セマンティックな損失がベースラインをはるかに上回ることを示す。
論文 参考訳(メタデータ) (2021-03-20T00:16:29Z) - Disambiguation of weak supervision with exponential convergence rates [88.99819200562784]
教師付き学習では、データは不完全で差別的な情報で注釈付けされる。
本稿では,ある入力から潜在的な対象のセットが与えられる弱い監督の事例である部分的ラベリングに焦点を当てる。
弱い監督から完全な監督を回復する実証的曖昧化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。