論文の概要: Learning Unknown Interdependencies for Decentralized Root Cause Analysis in Nonlinear Dynamical Systems
- arxiv url: http://arxiv.org/abs/2602.21928v1
- Date: Wed, 25 Feb 2026 14:05:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.851863
- Title: Learning Unknown Interdependencies for Decentralized Root Cause Analysis in Nonlinear Dynamical Systems
- Title(参考訳): 非線形力学系における分散型ルート原因解析のための未知の相互依存性の学習
- Authors: Ayush Mohanty, Paritosh Ramanan, Nagi Gebraeel,
- Abstract要約: ネットワーク化された産業システムにおけるルート原因分析(RCA)は,地理的に分散したクライアント間の相互依存性が未知かつ動的に変化するため困難である。
本稿では,機能分割非線形時系列データに対する相互依存型相互依存学習手法を提案する。
我々は、広範囲なシミュレーションと実世界の産業サイバーセキュリティデータセットに対する我々のアプローチを理論的収束保証として確立し、検証する。
- 参考スコア(独自算出の注目度): 3.122408196953971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Root cause analysis (RCA) in networked industrial systems, such as supply chains and power networks, is notoriously difficult due to unknown and dynamically evolving interdependencies among geographically distributed clients. These clients represent heterogeneous physical processes and industrial assets equipped with sensors that generate large volumes of nonlinear, high-dimensional, and heterogeneous IoT data. Classical RCA methods require partial or full knowledge of the system's dependency graph, which is rarely available in these complex networks. While federated learning (FL) offers a natural framework for decentralized settings, most existing FL methods assume homogeneous feature spaces and retrainable client models. These assumptions are not compatible with our problem setting. Different clients have different data features and often run fixed, proprietary models that cannot be modified. This paper presents a federated cross-client interdependency learning methodology for feature-partitioned, nonlinear time-series data, without requiring access to raw sensor streams or modifying proprietary client models. Each proprietary local client model is augmented with a Machine Learning (ML) model that encodes cross-client interdependencies. These ML models are coordinated via a global server that enforces representation consistency while preserving privacy through calibrated differential privacy noise. RCA is performed using model residuals and anomaly flags. We establish theoretical convergence guarantees and validate our approach on extensive simulations and a real-world industrial cybersecurity dataset.
- Abstract(参考訳): サプライチェーンや電力ネットワークのようなネットワーク化された産業システムにおける根本原因分析(RCA)は、地理的に分散されたクライアント間の未知かつ動的に相互依存性が変化するため、非常に難しい。
これらのクライアントは、大量の非線形、高次元、不均一なIoTデータを生成するセンサーを備えた異質な物理プロセスと産業資産を表す。
古典的なRCA法では、システムの依存グラフの部分的あるいは完全な知識が必要であるが、これらの複雑なネットワークではめったに利用できない。
フェデレートラーニング(FL)は、分散された設定のための自然なフレームワークを提供するが、既存のFLメソッドの多くは、均質な特徴空間とリトレーニング可能なクライアントモデルを前提としている。
これらの仮定は我々の問題設定と相容れない。
異なるクライアントは異なるデータ機能を持ち、しばしば修正できない固定されたプロプライエタリなモデルを実行します。
本稿では,センサストリームへのアクセスや独自のクライアントモデルの変更を必要とせず,機能分割・非線形時系列データに対する相互依存型相互依存学習手法を提案する。
各プロプライエタリなローカルクライアントモデルは、クロスクライアント相互依存性を符号化する機械学習(ML)モデルで拡張される。
これらのMLモデルは、キャリブレーションされた差分プライバシーノイズを通じてプライバシを保持しながら、表現一貫性を強制するグローバルサーバを介してコーディネートされる。
RCAはモデル残差と異常フラグを使用して実行される。
我々は、広範囲なシミュレーションと実世界の産業サイバーセキュリティデータセットに対する我々のアプローチを理論的収束保証として確立し、検証する。
関連論文リスト
- A Secure and Private Distributed Bayesian Federated Learning Design [56.92336577799572]
DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-23T16:12:02Z) - Federated Learning of Nonlinear Temporal Dynamics with Graph Attention-based Cross-Client Interpretability [2.8582274879786684]
分散非線形システムにおいて,クライアント間の時間的相互依存性を学習するためのフレームワークを提案する。
中央サーバは、グラフ注意ネットワークを使用して、通信された潜在状態上のグラフ構造化されたニューラル状態遷移モデルを学ぶ。
解釈可能性について、学習したサーバ側遷移モデルのヤコビアンを注意係数に関連付け、クライアント間の時間的相互依存性を初めて解釈可能な特徴付けを提供する。
論文 参考訳(メタデータ) (2026-02-13T21:41:52Z) - Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Federated Granger Causality Learning for Interdependent Clients with State Space Representation [0.6499759302108926]
我々は、グランガー因果関係を学習するための連合的なアプローチを開発する。
本稿では,サーバが学習したGranger因果関係情報を用いてクライアントモデルを拡張することを提案する。
また、フレームワークの集中的なオラクルモデルへの収束について研究する。
論文 参考訳(メタデータ) (2025-01-23T18:04:21Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。