論文の概要: Federated Learning with Reservoir State Analysis for Time Series Anomaly Detection
- arxiv url: http://arxiv.org/abs/2502.05679v2
- Date: Fri, 14 Feb 2025 08:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:45:14.021064
- Title: Federated Learning with Reservoir State Analysis for Time Series Anomaly Detection
- Title(参考訳): 時系列異常検出のための貯留層状態解析によるフェデレート学習
- Authors: Keigo Nogami, Hiroto Tamura, Gouhei Tanaka,
- Abstract要約: フェデレートラーニングでは、複数のクライアントによるローカルモデルトレーニングとサーバによるモデル統合は、モデルパラメータ共有によってのみ繰り返される。
本研究では,計算効率とデータプライバシ保護を同時に求めるために,貯水池状態解析を用いたフェデレーション学習手法を提案する。
時系列異常検出のためのベンチマークデータセットを用いて,InFed MD-RSの性能評価を行った。
- 参考スコア(独自算出の注目度): 1.1557852082644076
- License:
- Abstract: With a growing data privacy concern, federated learning has emerged as a promising framework to train machine learning models without sharing locally distributed data. In federated learning, local model training by multiple clients and model integration by a server are repeated only through model parameter sharing. Most existing federated learning methods assume training deep learning models, which are often computationally demanding. To deal with this issue, we propose federated learning methods with reservoir state analysis to seek computational efficiency and data privacy protection simultaneously. Specifically, our method relies on Mahalanobis Distance of Reservoir States (MD-RS) method targeting time series anomaly detection, which learns a distribution of reservoir states for normal inputs and detects anomalies based on a deviation from the learned distribution. Iterative updating of statistical parameters in the MD-RS enables incremental federated learning (IncFed MD-RS). We evaluate the performance of IncFed MD-RS using benchmark datasets for time series anomaly detection. The results show that IncFed MD-RS outperforms other federated learning methods with deep learning and reservoir computing models particularly when clients' data are relatively short and heterogeneous. We demonstrate that IncFed MD-RS is robust against reduced sample data compared to other methods. We also show that the computational cost of IncFed MD-RS can be reduced by subsampling from the reservoir states without performance degradation. The proposed method is beneficial especially in anomaly detection applications where computational efficiency, algorithm simplicity, and low communication cost are required.
- Abstract(参考訳): データのプライバシに関する懸念が高まる中、フェデレーション付き学習は、ローカルに分散したデータを共有せずに機械学習モデルをトレーニングするための有望なフレームワークとして登場した。
フェデレートラーニングでは、複数のクライアントによるローカルモデルトレーニングとサーバによるモデル統合は、モデルパラメータ共有によってのみ繰り返される。
既存の連合学習手法の多くは、しばしば計算的に要求される深層学習モデルの訓練を前提としている。
この問題に対処するため,計算効率とデータプライバシ保護を同時に求めるために,貯水池状態解析を用いたフェデレーション学習手法を提案する。
具体的には, 時系列異常検出を目的としたMahalanobis Distance of Reservoir States (MD-RS) 法を用いて, 正常な入力に対する貯留状態の分布を学習し, 学習した分布からの偏差に基づいて異常を検出する。
MD-RSにおける統計パラメータの反復的更新は、インクリメンタルフェデレーション学習(IncFed MD-RS)を可能にする。
時系列異常検出のためのベンチマークデータセットを用いて,InFed MD-RSの性能評価を行った。
InFed MD-RSは、クライアントのデータが比較的短く不均一である場合、ディープラーニングや貯水池コンピューティングモデルにより、他のフェデレーション学習手法よりも優れていることを示す。
InFed MD-RSは,他の手法と比較してサンプルデータの減少に対して頑健であることを示す。
また,InFed MD-RSの計算コストは,性能劣化を伴わない貯水池状態からのサブサンプリングによって低減できることを示した。
提案手法は, 計算効率, アルゴリズムの単純さ, 通信コストの低い異常検出アプリケーションにおいて特に有用である。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - Mitigating ML Model Decay in Continuous Integration with Data Drift
Detection: An Empirical Study [7.394099294390271]
本研究では,CI環境におけるTCP用MLモデルのリトレーニングポイントを自動的に検出するデータドリフト検出手法の性能について検討する。
我々はHellinger距離を用いて入力データの値と分布の変化を同定し、これらの変化をMLモデルの再学習点として利用した。
Hellinger distance-based methodの実験により,再学習点の検出と関連するコストの低減に効果と効率が示された。
論文 参考訳(メタデータ) (2023-05-22T05:55:23Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Hybridization of Capsule and LSTM Networks for unsupervised anomaly
detection on multivariate data [0.0]
本稿では,Long-Short-Term-Memory(LSTM)とCapsule Networksを1つのネットワークに結合した新しいNNアーキテクチャを提案する。
提案手法は教師なし学習手法を用いて大量のラベル付きトレーニングデータを見つける際の問題を克服する。
論文 参考訳(メタデータ) (2022-02-11T10:33:53Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Training Structured Mechanical Models by Minimizing Discrete
Euler-Lagrange Residual [36.52097893036073]
structured mechanical models (smms) は、機械システムのデータ効率の良いブラックボックスパラメータ化である。
離散オイラーラグランジュ残差を最小化することにより,SMMをデータに適用する手法を提案する。
実験の結果,従来のSMMの適合方式よりも精度の高いモデルが得られた。
論文 参考訳(メタデータ) (2021-05-05T00:44:01Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。