論文の概要: Federated Learning of Dynamic Bayesian Network via Continuous Optimization from Time Series Data
- arxiv url: http://arxiv.org/abs/2412.09814v2
- Date: Wed, 05 Feb 2025 19:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 17:43:54.892717
- Title: Federated Learning of Dynamic Bayesian Network via Continuous Optimization from Time Series Data
- Title(参考訳): 時系列データからの連続最適化による動的ベイズネットワークのフェデレーション学習
- Authors: Jianhong Chen, Ying Ma, Xubo Yue,
- Abstract要約: 現実のシナリオでは、データは複数のエンティティに分散され、動的ベイズネットワークを協調的に学習しようとする。
本研究では,同種時系列データから動的ベイズネットワークの構造を推定するフェデレート学習手法を提案する。
そして、このアプローチを、パーソナライズされたフェデレーション学習フレームワークにおいて、近似演算子を正規化項として組み込むことにより、異種時系列データに拡張する。
- 参考スコア(独自算出の注目度): 2.4305626489408465
- License:
- Abstract: Traditionally, learning the structure of a Dynamic Bayesian Network has been centralized, requiring all data to be pooled in one location. However, in real-world scenarios, data are often distributed across multiple entities (e.g., companies, devices) that seek to collaboratively learn a Dynamic Bayesian Network while preserving data privacy and security. More importantly, due to the presence of diverse clients, the data may follow different distributions, resulting in data heterogeneity. This heterogeneity poses additional challenges for centralized approaches. In this study, we first introduce a federated learning approach for estimating the structure of a Dynamic Bayesian Network from homogeneous time series data that are horizontally distributed across different parties. We then extend this approach to heterogeneous time series data by incorporating a proximal operator as a regularization term in a personalized federated learning framework. To this end, we propose \texttt{FDBNL} and \texttt{PFDBNL}, which leverage continuous optimization, ensuring that only model parameters are exchanged during the optimization process. Experimental results on synthetic and real-world datasets demonstrate that our method outperforms state-of-the-art techniques, particularly in scenarios with many clients and limited individual sample sizes.
- Abstract(参考訳): 伝統的に、ダイナミックベイズネットワークの構造を学ぶことは集中しており、すべてのデータをひとつの場所にプールする必要がある。
しかし、現実のシナリオでは、データは複数のエンティティ(企業、デバイスなど)に分散され、データプライバシとセキュリティを保ちながら、ダイナミックベイズネットワークを協調的に学習しようとする。
さらに重要なのは、多様なクライアントが存在するため、データは異なる分布を辿り、結果としてデータの異質性をもたらす可能性があることだ。
この異質性は集中的なアプローチにさらなる課題をもたらす。
本研究ではまず,動的ベイズネットワークの構造を,各パーティに水平に分散した均一な時系列データから推定するフェデレート学習手法を提案する。
そして、このアプローチを、パーソナライズされたフェデレーション学習フレームワークにおいて、近似演算子を正規化項として組み込むことにより、異種時系列データに拡張する。
この目的のために、連続的な最適化を活用して、最適化プロセス中にのみモデルパラメータが交換されることを保証する、 \texttt{FDBNL} と \texttt{PFDBNL} を提案する。
合成および実世界のデータセットを用いた実験結果から,本手法は最先端技術,特にクライアントが多い場合,サンプルサイズが限定された場合において,優れた性能を示すことが示された。
関連論文リスト
- Federated Learning Optimization: A Comparative Study of Data and Model Exchange Strategies in Dynamic Networks [3.4179091429029382]
デバイス間で生データ、合成データ、または(部分的な)モデル更新を交換する選択について検討する。
私たちが考慮した様々なシナリオにおいて、時間限定の知識伝達効率は9.08%まで異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-16T03:46:23Z) - Variational Bayes for Federated Continual Learning [38.11883572425234]
フェデレートベイズニューラルネットワーク(Federated Bayesian Neural Network, FedBNN)は,すべてのクライアントに分散ベイズニューラルネットワークを用いた多目的かつ効率的なフレームワークである。
本手法は, 局所的および歴史的データ分布からの知識を単一モデルに連続的に統合し, 履歴分布の性能を維持しつつ, 新たなデータ分布から順応的に学習する。
論文 参考訳(メタデータ) (2024-05-23T08:09:21Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Towards Federated Bayesian Network Structure Learning with Continuous
Optimization [14.779035801521717]
本稿では,ベイズネットワークの構造を推定するクロスサイロ・フェデレーション学習手法を提案する。
本研究では,連続最適化に基づく分散構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:36:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。