論文の概要: FedCross: Intertemporal Federated Learning Under Evolutionary Games
- arxiv url: http://arxiv.org/abs/2412.16968v1
- Date: Sun, 22 Dec 2024 10:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:34.218038
- Title: FedCross: Intertemporal Federated Learning Under Evolutionary Games
- Title(参考訳): FedCross: 進化的ゲームによる時間的フェデレーション学習
- Authors: Jianfeng Lu, Ying Zhang, Riheng Jia, Shuqin Cao, Jing Liu, Hao Fu,
- Abstract要約: Federated Learning (FL)は、複数のクライアントが協力してローカルにトレーニングできるようにすることで、分散機械学習におけるプライバシー漏洩を軽減する。
高モビリティ、断続接続、帯域幅制限を備えたモバイルネットワークは、クラウドサーバのモデル更新を著しく妨げている。
我々は、中断したトレーニングタスクを実行可能なモバイルデバイスに移行することで、FLタスクの継続性を保証する、時間的インセンティブフレームワークであるFedCrossを提案する。
- 参考スコア(独自算出の注目度): 18.33803225656391
- License:
- Abstract: Federated Learning (FL) mitigates privacy leakage in decentralized machine learning by allowing multiple clients to train collaboratively locally. However, dynamic mobile networks with high mobility, intermittent connectivity, and bandwidth limitation severely hinder model updates to the cloud server. Although previous studies have typically addressed user mobility issue through task reassignment or predictive modeling, frequent migrations may result in high communication overhead. Overcoming this obstacle involves not only dealing with resource constraints, but also finding ways to mitigate the challenges posed by user migrations. We therefore propose an intertemporal incentive framework, FedCross, which ensures the continuity of FL tasks by migrating interrupted training tasks to feasible mobile devices. Specifically, FedCross comprises two distinct stages. In Stage 1, we address the task allocation problem across regions under resource constraints by employing a multi-objective migration algorithm to quantify the optimal task receivers. Moreover, we adopt evolutionary game theory to capture the dynamic decision-making of users, forecasting the evolution of user proportions across different regions to mitigate frequent migrations. In Stage 2, we utilize a procurement auction mechanism to allocate rewards among base stations, ensuring that those providing high-quality models receive optimal compensation. This approach incentivizes sustained user participation, thereby ensuring the overall feasibility of FedCross. Finally, experimental results validate the theoretical soundness of FedCross and demonstrate its significant reduction in communication overhead.
- Abstract(参考訳): Federated Learning (FL)は、複数のクライアントが協力してローカルにトレーニングできるようにすることで、分散機械学習におけるプライバシー漏洩を軽減する。
しかし、ハイモビリティ、断続接続、帯域幅制限を備えた動的モバイルネットワークは、クラウドサーバのモデル更新を著しく妨げている。
従来の研究では、タスク再割り当てや予測モデリングを通じて、ユーザモビリティの問題に対処してきたが、頻繁なマイグレーションは、高い通信オーバーヘッドをもたらす可能性がある。
この障害を克服するには、リソースの制約に対処するだけでなく、ユーザのマイグレーションによる課題を軽減する方法を見つける必要がある。
そこで我々は,中断したトレーニングタスクをモバイルデバイスに移行させることにより,FLタスクの継続性を保証する,時間的インセンティブフレームワークであるFedCrossを提案する。
具体的には、FedCrossは2つの異なるステージから構成される。
ステージ1では、最適タスクレシーバーの定量化に多目的マイグレーションアルゴリズムを用いて、リソース制約下でのタスク割り当て問題に対処する。
さらに,ユーザの動的意思決定を捉えるために進化ゲーム理論を採用し,各領域におけるユーザ比率の進化を予測し,頻繁なマイグレーションを緩和する。
ステージ2では,提案手法を用いて基地局間の報酬を配分し,高品質なモデルを提供する者が最適な補償を受けることを保証する。
このアプローチは、持続的なユーザ参加を動機付け、FedCrossの全体的な実現性を保証する。
最後に,FedCrossの理論的健全性を検証し,通信オーバヘッドの大幅な低減を実証した。
関連論文リスト
- FedGTST: Boosting Global Transferability of Federated Models via Statistics Tuning [26.093271475139417]
Federated Learning(FL)は、クライアント間のコラボレーションを促進し、データセットを間接的に拡張し、計算コストを分散し、プライバシを保存することで、問題に対処する。
まず、クライアント-サーバ交換プロトコルを導入し、クロスクライアントのJacobianノルムを活用し、転送可能性を高める。
第2に、クライアント間の平均ジャコビアンノルムをサーバ上で増加させ、これを局所正規化器として使用して、クロスクライアントジャコビアン分散を低減する。
論文 参考訳(メタデータ) (2024-10-16T21:13:52Z) - FedAuxHMTL: Federated Auxiliary Hard-Parameter Sharing Multi-Task Learning for Network Edge Traffic Classification [9.816810723612653]
本稿では,FedAuxHMTLという,多タスク学習のための補助的ハードパラメータ共有フレームワークを提案する。
エッジサーバとベースステーション間のモデルパラメータ交換を取り入れ、分散領域のベースステーションがFedAuxHMTLプロセスに参加することを可能にする。
実験により,FedAuxHMTLの有効性を,精度,全地球的損失,通信コスト,計算時間,エネルギー消費の観点から検証し,実証した。
論文 参考訳(メタデータ) (2024-04-11T16:23:28Z) - Wirelessly Powered Federated Learning Networks: Joint Power Transfer,
Data Sensing, Model Training, and Resource Allocation [24.077525032187893]
フェデレートラーニング(FL)は、無線ネットワークで多くの成功を収めている。
FLの実装は、モバイルデバイス(MD)のエネルギー制限と、MDにおけるトレーニングデータの可用性によって妨げられている。
無線送電と持続可能なFLネットワークの統合
論文 参考訳(メタデータ) (2023-08-09T13:38:58Z) - Mobility-Aware Joint User Scheduling and Resource Allocation for Low
Latency Federated Learning [14.343345846105255]
フェデレート学習システムにおけるユーザモビリティの実践モデルを提案する。
制約のある通信リソースによるトレーニング遅延を最小限に抑えるために,ユーザスケジューリングとリソース割り当て手法を開発した。
具体的には、まず、ユーザ選択、ユーザへのBS割り当て、帯域幅割り当てを共同で検討するユーザモビリティに関する最適化問題を定式化する。
論文 参考訳(メタデータ) (2023-07-18T13:48:05Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Artificial Intelligence Empowered Multiple Access for Ultra Reliable and
Low Latency THz Wireless Networks [76.89730672544216]
テラヘルツ(THz)無線ネットワークは、第5世代(B5G)以上の時代を触媒すると予想されている。
いくつかのB5Gアプリケーションの超信頼性と低レイテンシ要求を満たすためには、新しいモビリティ管理アプローチが必要である。
本稿では、インテリジェントなユーザアソシエーションとリソースアロケーションを実現するとともに、フレキシブルで適応的なモビリティ管理を可能にする、全体論的MAC層アプローチを提案する。
論文 参考訳(メタデータ) (2022-08-17T03:00:24Z) - Omni-Training for Data-Efficient Deep Learning [80.28715182095975]
近年の進歩により、適切に訓練されたモデルが重要な特性であるトランスファービリティを持つことが明らかとなった。
事前訓練とメタトレーニングの厳密な組み合わせは、どちらの種類のトランスファー可能性も達成できない。
このことが提案されているOmni-Trainingフレームワークを,データ効率のよいディープラーニングに動機付けている。
論文 参考訳(メタデータ) (2021-10-14T16:30:36Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。