論文の概要: CICADA: Cross-Domain Interpretable Coding for Anomaly Detection and Adaptation in Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2505.00415v1
- Date: Thu, 01 May 2025 09:26:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.274628
- Title: CICADA: Cross-Domain Interpretable Coding for Anomaly Detection and Adaptation in Multivariate Time Series
- Title(参考訳): CICADA:多変量時系列における異常検出と適応のためのクロスドメイン解釈符号化
- Authors: Tian Lan, Yifei Gao, Yimeng Lu, Chen Zhang,
- Abstract要約: CICADA(Cross-domain Interpretable Coding for Anomaly Detection and Adaptation)を4つの重要なイノベーションとともに紹介する。
CICADAは、高い柔軟性と解釈可能性を備えたドメインに依存しない異常特徴をキャプチャする。
合成および実世界の産業データセットに関する試行は、CICADAがクロスドメイン検出性能と解釈可能性の両方において最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 24.307819352969037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Time series anomaly detection plays a crucial role in applications across industries. However, existing methods face significant challenges due to data distributional shifts across different domains, which are exacerbated by the non-stationarity of time series over time. Existing models fail to generalize under multiple heterogeneous source domains and emerging unseen new target domains. To fill the research gap, we introduce CICADA (Cross-domain Interpretable Coding for Anomaly Detection and Adaptation), with four key innovations: (1) a mixture of experts (MOE) framework that captures domain-agnostic anomaly features with high flexibility and interpretability; (2) a novel selective meta-learning mechanism to prevent negative transfer between dissimilar domains, (3) an adaptive expansion algorithm for emerging heterogeneous domain expansion, and (4) a hierarchical attention structure that quantifies expert contributions during fusion to enhance interpretability further.Extensive experiments on synthetic and real-world industrial datasets demonstrate that CICADA outperforms state-of-the-art methods in both cross-domain detection performance and interpretability.
- Abstract(参考訳): 業界全体のアプリケーションにおいて、教師なし時系列異常検出が重要な役割を担っている。
しかし、既存の手法は、時間とともに時系列の非定常性によって悪化する、異なる領域間でのデータ分散シフトによって大きな課題に直面している。
既存のモデルは、複数のヘテロジニアスソースドメインの下で一般化することができず、新しいターゲットドメインが出現する。
研究ギャップを埋めるために,我々はCICADA(Cross- domain Interpretable Coding for Anomaly Detection and Adaptation)を,(1)ドメインに依存しない異常特徴を高い柔軟性と解釈性で捉えた専門家(MOE)フレームワークの混合,(2)異種ドメイン間の負の伝達を防止するための新しいメタラーニング機構,(3)異種ドメイン拡張のための適応的拡張アルゴリズム,(4)融合時に専門家の貢献を定量化して解釈性をさらに向上する階層型アテンション構造,の4つの重要な革新点を紹介した。
関連論文リスト
- Unsupervised Anomaly Detection in Multivariate Time Series across Heterogeneous Domains [0.8427519082414066]
教師なし異常検出手法をベンチマークするための統一フレームワークを提案する。
そして、実践的なAIOpsシナリオで起こりうる通常の振る舞いのシフトの問題を強調します。
ドメインシフトによる異常検出に対処するために,新しいアプローチであるDomain-Invariant VAEを提案する。
論文 参考訳(メタデータ) (2025-03-29T12:38:28Z) - Multisource Collaborative Domain Generalization for Cross-Scene Remote Sensing Image Classification [57.945437355714155]
クロスシーン画像分類は, 異なる分布領域のアノテート領域に, 地中物質の事前の知識を伝達することを目的としている。
既存のアプローチでは、未確認のターゲットドメインへの単一ソースドメインの一般化に重点を置いている。
マルチソースリモートセンシングデータの均一性と不均一性特性に基づく,新しいマルチソース協調型ドメイン一般化フレームワーク(MS-CDG)を提案する。
論文 参考訳(メタデータ) (2024-12-05T06:15:08Z) - Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - DACAD: Domain Adaptation Contrastive Learning for Anomaly Detection in Multivariate Time Series [25.434379659643707]
時系列異常検出では、ラベル付きデータの不足が正確なモデルの開発に困難をもたらす。
時系列における異常検出のための新しいドメインコントラスト学習モデル(DACAD)を提案する。
本モデルでは,ソース領域に対する教師付きコントラスト損失と,ターゲット領域に対する自己監督型コントラスト型3重項損失を用いる。
論文 参考訳(メタデータ) (2024-04-17T11:20:14Z) - Semantic Feature Learning for Universal Unsupervised Cross-Domain
Retrieval [10.270998709614538]
本稿では,Universal Unsupervised Cross-Domain Retrieval (U2CDR) の問題を初めて紹介する。
第1段階では、インスタンスプロトタイプ混合コントラスト損失のガイダンスに基づいて、クロスドメイン統一構造が確立される。
第2段階では、修正された対向訓練機構により、ドメインアライメント中に確立された原型構造に対して最小限の変更が保証される。
論文 参考訳(メタデータ) (2024-03-08T21:56:00Z) - Learning to Generalize over Subpartitions for Heterogeneity-aware Domain
Adaptive Nuclei Segmentation [8.303040737608173]
画像レベルとインスタンスレベルの両方でドメイン不変の特徴表現を取得するために,2段階のアンタングルメントフレームワークを提案する。
合成画像における核の過剰発生と変形を防止するために, 二重分岐型核形状と構造保存モジュールを提案する。
論文 参考訳(メタデータ) (2024-01-17T01:37:17Z) - AdapTraj: A Multi-Source Domain Generalization Framework for Multi-Agent
Trajectory Prediction [29.489714129095862]
マルチエージェント軌道予測は、動的システムにおけるオブジェクトの複雑な相互作用をモデル化する上で重要なタスクである。
本稿では,マルチエージェント軌道予測に適したマルチソース領域一般化フレームワークAdapTrajを提案する。
AdapTrajは、他のベースラインをかなり上回っている。
論文 参考訳(メタデータ) (2023-12-22T02:49:56Z) - Unified Domain Adaptive Semantic Segmentation [96.74199626935294]
Unsupervised Adaptive Domain Semantic (UDA-SS)は、ラベル付きソースドメインからラベル付きターゲットドメインに監督を移すことを目的としている。
本稿では,特徴量と特徴量との相違に対処するQuad-directional Mixup(QuadMix)法を提案する。
提案手法は,4つの挑戦的UDA-SSベンチマークにおいて,最先端の成果を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-11-22T09:18:49Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - Context-aware Domain Adaptation for Time Series Anomaly Detection [69.3488037353497]
時系列異常検出は、幅広い現実世界の応用において難しい課題である。
近年,類似分野の知識を活用するため,時系列領域適応への取り組みが進められている。
本研究では,コンテキストサンプリングと異常検出を併用した共同学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-15T02:28:58Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。