論文の概要: Stackelberg Game Based Performance Optimization in Digital Twin Assisted Federated Learning over NOMA Networks
- arxiv url: http://arxiv.org/abs/2501.01584v1
- Date: Fri, 03 Jan 2025 00:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:11:44.578739
- Title: Stackelberg Game Based Performance Optimization in Digital Twin Assisted Federated Learning over NOMA Networks
- Title(参考訳): NOMAネットワーク上でのデジタルツイン支援フェデレーション学習におけるStackelbergゲームによるパフォーマンス最適化
- Authors: Bibo Wu, Fang Fang, Xianbin Wang,
- Abstract要約: フェデレートラーニング(FL)は、分散クライアントの限られたコンピューティングリソースと信頼性の低い無線通信環境のために、依然としてトラグル問題に悩まされている。
分散リソースを効果的に模倣することにより、デジタルツイン(DT)はこの問題を軽減する大きな可能性を示している。
本稿では、FLフレームワークにおけるDTを非直交多重アクセス(NOMA)ネットワーク上で活用し、クライアントからのモデル更新に対する悪意のある攻撃を考慮してFLトレーニングプロセスを支援する。
- 参考スコア(独自算出の注目度): 10.332182237773818
- License:
- Abstract: Despite the advantage of preserving data privacy, federated learning (FL) still suffers from the straggler issue due to the limited computing resources of distributed clients and the unreliable wireless communication environment. By effectively imitating the distributed resources, digital twin (DT) shows great potential in alleviating this issue. In this paper, we leverage DT in the FL framework over non-orthogonal multiple access (NOMA) network to assist FL training process, considering malicious attacks on model updates from clients. A reputationbased client selection scheme is proposed, which accounts for client heterogeneity in multiple aspects and effectively mitigates the risks of poisoning attacks in FL systems. To minimize the total latency and energy consumption in the proposed system, we then formulate a Stackelberg game by considering clients and the server as the leader and the follower, respectively. Specifically, the leader aims to minimize the energy consumption while the objective of the follower is to minimize the total latency during FL training. The Stackelberg equilibrium is achieved to obtain the optimal solutions. We first derive the strategies for the followerlevel problem and include them in the leader-level problem which is then solved via problem decomposition. Simulation results verify the superior performance of the proposed scheme.
- Abstract(参考訳): データプライバシの保護の利点にもかかわらず、フェデレートドラーニング(FL)は分散クライアントの限られたコンピューティングリソースと信頼性の低い無線通信環境のために、依然としてトラグル問題に悩まされている。
分散リソースを効果的に模倣することにより、デジタルツイン(DT)はこの問題を軽減する大きな可能性を示している。
本稿では、FLフレームワークにおけるDTを非直交多重アクセス(NOMA)ネットワーク上で活用し、クライアントからのモデル更新に対する悪意のある攻撃を考慮してFLトレーニングプロセスを支援する。
複数の面でクライアントの不均一性を考慮し,FLシステムにおける有害な攻撃のリスクを効果的に軽減する,評価に基づくクライアント選択方式を提案する。
提案システムにおける総レイテンシとエネルギー消費を最小化するために,クライアントとサーバをそれぞれリーダとして考慮し,Stackelbergゲームを定式化する。
具体的には、このリーダーは、FLトレーニング中の全遅延を最小限に抑えながら、エネルギー消費を最小化することを目的としている。
Stackelberg平衡は最適解を得るために達成される。
まず、フォローレベル問題の戦略を導出し、問題を分解して解決するリーダレベルの問題に含めます。
シミュレーションの結果,提案方式の優れた性能が検証された。
関連論文リスト
- Accelerating Energy-Efficient Federated Learning in Cell-Free Networks with Adaptive Quantization [45.99908087352264]
フェデレートラーニング(FL)により、クライアントはローカルデータの代わりに学習パラメータを共有でき、通信オーバーヘッドを低減できる。
従来の無線ネットワークはFLでレイテンシの問題に直面している。
本稿では,クライアントサーバ間のシームレスな協調作業に最適化されたアップリンク電力割り当てを特徴とするエネルギー効率,低レイテンシFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-30T08:10:21Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。