論文の概要: Explaining Deep Learning-based Anomaly Detection in Energy Consumption Data by Focusing on Contextually Relevant Data
- arxiv url: http://arxiv.org/abs/2501.06099v1
- Date: Fri, 10 Jan 2025 16:53:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:28:09.142713
- Title: Explaining Deep Learning-based Anomaly Detection in Energy Consumption Data by Focusing on Contextually Relevant Data
- Title(参考訳): 文脈関連データに着目したエネルギー消費データにおけるディープラーニングに基づく異常検出の解説
- Authors: Mohammad Noorchenarboo, Katarina Grolinger,
- Abstract要約: 本稿では,コンテキスト関連情報に着目したエネルギー消費データにおける異常に対する説明可能性アプローチを提案する。
10種類の機械学習モデル、5つのデータセット、5つのXAI技術による実験結果から、本手法が一貫した説明を提供する説明の多様性を低下させることを示す。
- 参考スコア(独自算出の注目度): 0.9208007322096533
- License:
- Abstract: Detecting anomalies in energy consumption data is crucial for identifying energy waste, equipment malfunction, and overall, for ensuring efficient energy management. Machine learning, and specifically deep learning approaches, have been greatly successful in anomaly detection; however, they are black-box approaches that do not provide transparency or explanations. SHAP and its variants have been proposed to explain these models, but they suffer from high computational complexity (SHAP) or instability and inconsistency (e.g., Kernel SHAP). To address these challenges, this paper proposes an explainability approach for anomalies in energy consumption data that focuses on context-relevant information. The proposed approach leverages existing explainability techniques, focusing on SHAP variants, together with global feature importance and weighted cosine similarity to select background dataset based on the context of each anomaly point. By focusing on the context and most relevant features, this approach mitigates the instability of explainability algorithms. Experimental results across 10 different machine learning models, five datasets, and five XAI techniques, demonstrate that our method reduces the variability of explanations providing consistent explanations. Statistical analyses confirm the robustness of our approach, showing an average reduction in variability of approximately 38% across multiple datasets.
- Abstract(参考訳): 省エネデータの異常検出は, 省エネ, 設備の故障, 総合的に, 省エネ管理の効率化に不可欠である。
機械学習、特にディープラーニングアプローチは、異常検出において非常に成功したが、透明性や説明を提供しないブラックボックスアプローチである。
SHAPとその変種はこれらのモデルを説明するために提案されているが、それらは高い計算複雑性(SHAP)または不安定性と矛盾(例えば Kernel SHAP)に悩まされている。
これらの課題に対処するため,本稿では,コンテキスト関連情報に焦点をあてたエネルギー消費データにおける異常に対する説明可能性アプローチを提案する。
提案手法は、SHAPの変種に着目した既存の説明可能性手法と、グローバルな特徴の重要性と、各異常点のコンテキストに基づいて選択された背景データセットとの重み付けされたコサイン類似性を活用する。
コンテキストと最も関連性の高い特徴に注目して、このアプローチは説明可能性アルゴリズムの不安定性を軽減します。
10種類の機械学習モデル、5つのデータセット、5つのXAI技術による実験結果から、本手法が一貫した説明を提供する説明の多様性を低下させることを示す。
統計的解析により, 提案手法のロバスト性が確認され, 複数のデータセットで約38%のばらつきが平均的に減少することが示された。
関連論文リスト
- The role of data embedding in quantum autoencoders for improved anomaly detection [0.0]
異常検出タスクにおける量子オートエンコーダ(QAE)の性能は、データ埋め込みとアンザッツ設計の選択に大きく依存する。
本研究では,3つのデータ埋め込み技術,データ再ロード,並列埋め込み,代替埋め込みが異常検出におけるQAEの表現性および有効性に与える影響について検討した。
論文 参考訳(メタデータ) (2024-09-06T18:00:01Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - Cross-feature Contrastive Loss for Decentralized Deep Learning on
Heterogeneous Data [8.946847190099206]
異種データに基づく分散学習のための新しい手法を提案する。
一対の隣接するエージェントのクロスフィーチャーは、他のエージェントのモデルパラメータに関するエージェントのデータから得られる特徴である。
実験の結果,提案手法は異種データを用いた分散学習手法に比べて性能(テスト精度が0.2~4%向上)が優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-24T14:48:23Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Energy Discrepancies: A Score-Independent Loss for Energy-Based Models [20.250792836049882]
本稿では,スコアの計算や高価なマルコフ連鎖モンテカルロの計算に頼らない新しい損失関数であるEnergy Discrepancy (ED)を提案する。
EDは明示的なスコアマッチングと負のログ類似損失に異なる限界でアプローチし,両者を効果的に補間することを示した。
論文 参考訳(メタデータ) (2023-07-12T19:51:49Z) - Solving High-Dimensional Inverse Problems with Auxiliary Uncertainty via
Operator Learning with Limited Data [0.35880734696551125]
システム状態の観測からの情報源の同定は、帰属と予測に不可欠である。
データ課題は、状態とソースの高次元性、サロゲートモデルをトレーニングするためのコストのかかるモデルシミュレーションの限定的なアンサンブル、インバージョンのためのほとんど、潜在的にノイズの多い状態観察から生じる。
本研究では,(1)シミュレーションのアンサンブルによって提供されるフローマップに,ディープニューラルネットワークのサロゲートを校正するフレームワークを導入し,(2)ベイジアンフレームワークにおけるこれらのサロゲートを用いて,最適化による観測からのソースの特定を行う。
論文 参考訳(メタデータ) (2023-03-20T18:29:23Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Artificial Intelligence based Anomaly Detection of Energy Consumption in
Buildings: A Review, Current Trends and New Perspectives [2.1874189959020423]
本稿では,人工知能を用いたエネルギー消費構築のための,既存の異常検出フレームワークの詳細なレビューを行う。
著者の知識を最大限に活用するために、エネルギー消費の構築における異常検出について論じる最初のレビュー記事である。
論文 参考訳(メタデータ) (2020-10-09T13:28:34Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。