論文の概要: Semi-decentralized Federated Time Series Prediction with Client Availability Budgets
- arxiv url: http://arxiv.org/abs/2509.03660v1
- Date: Wed, 03 Sep 2025 19:21:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.951729
- Title: Semi-decentralized Federated Time Series Prediction with Client Availability Budgets
- Title(参考訳): クライアントアベイラビリティ予算を用いた半分散フェデレーション時系列予測
- Authors: Yunkai Bao, Reza Safarzadeh, Xin Wang, Steve Drew,
- Abstract要約: フェデレートラーニング(FL)は、IoT(Internet of Things)シナリオにおける分散クライアント間の協調トレーニングを効果的に促進する。
データの不均一性にもかかわらず、FLクライアントは限られたエネルギーと可用性の予算によって制約される可能性がある。
我々は、利用可能なクライアントの確率的ランキングを応用した、新しい半分散クライアント選択法であるFedDeCABを提案する。
- 参考スコア(独自算出の注目度): 5.277263893631369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) effectively promotes collaborative training among distributed clients with privacy considerations in the Internet of Things (IoT) scenarios. Despite of data heterogeneity, FL clients may also be constrained by limited energy and availability budgets. Therefore, effective selection of clients participating in training is of vital importance for the convergence of the global model and the balance of client contributions. In this paper, we discuss the performance impact of client availability with time-series data on federated learning. We set up three different scenarios that affect the availability of time-series data and propose FedDeCAB, a novel, semi-decentralized client selection method applying probabilistic rankings of available clients. When a client is disconnected from the server, FedDeCAB allows obtaining partial model parameters from the nearest neighbor clients for joint optimization, improving the performance of offline models and reducing communication overhead. Experiments based on real-world large-scale taxi and vessel trajectory datasets show that FedDeCAB is effective under highly heterogeneous data distribution, limited communication budget, and dynamic client offline or rejoining.
- Abstract(参考訳): フェデレートラーニング(FL)は、IoT(Internet of Things)シナリオにおいて、プライバシを考慮した分散クライアント間の協調トレーニングを効果的に促進する。
データの不均一性にもかかわらず、FLクライアントは限られたエネルギーと可用性の予算によって制約される可能性がある。
したがって、グローバルモデルの収束と顧客貢献のバランスには、トレーニングに参加するクライアントの効果的な選択が不可欠である。
本稿では,クライアント・アベイラビリティと時系列データによるフェデレーション学習の性能への影響について論じる。
時系列データの可用性に影響を与える3つのシナリオを設定し、利用可能なクライアントの確率的ランキングを適用した、新しい半分散型クライアント選択手法であるFedDeCABを提案する。
クライアントがサーバから切り離された場合、FedDeCABは近隣のクライアントから部分的なモデルパラメータを取得し、共同最適化し、オフラインモデルの性能を改善し、通信オーバーヘッドを低減します。
実世界の大規模タクシーおよび船舶軌道データセットに基づく実験により、FedDeCABは高度に均一なデータ分散、限られた通信予算、オフラインまたは再接続の動的クライアントにおいて有効であることが示された。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning [16.543724155324938]
FRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を導入する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
実験の結果,FRECAはクライアントのコントリビューションをロバストな方法で正確かつ効率的に定量化できることがわかった。
論文 参考訳(メタデータ) (2024-02-06T21:07:12Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Federated Learning Under Intermittent Client Availability and
Time-Varying Communication Constraints [29.897785907692644]
フェデレートされた学習システムは、断続的なクライアントの可用性および/または時間変化の通信制約を伴う設定で動作する。
可用性に依存したクライアント選択戦略を学習する非バイアスアルゴリズムであるF3ASTを提案する。
CIFAR100とシェークスピアでそれぞれ186%,FedAvgは8%,FedAdamは7%であった。
論文 参考訳(メタデータ) (2022-05-13T16:08:58Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。