論文の概要: Closing the Generalization Gap in Parameter-efficient Federated Edge Learning
- arxiv url: http://arxiv.org/abs/2511.23282v1
- Date: Fri, 28 Nov 2025 15:34:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.966141
- Title: Closing the Generalization Gap in Parameter-efficient Federated Edge Learning
- Title(参考訳): パラメータ効率のフェデレーションエッジ学習における一般化ギャップの閉鎖
- Authors: Xinnong Du, Zhonghao Lyu, Xiaowen Cao, Chunyang Wen, Shuguang Cui, Jie Xu,
- Abstract要約: フェデレーションエッジラーニング(FEEL)は人工知能(AI)のための有望な基盤を提供する
限定的で異種なローカルデータセット、およびリソース制限されたデプロイメントは、モデル一般化とリソース利用の両方を著しく低下させる。
本稿では,モデル最小化と一般化選択を併用して,このような課題に対処するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.00634399799955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated edge learning (FEEL) provides a promising foundation for edge artificial intelligence (AI) by enabling collaborative model training while preserving data privacy. However, limited and heterogeneous local datasets, as well as resource-constrained deployment, severely degrade both model generalization and resource utilization, leading to a compromised learning performance. Therefore, we propose a parameter-efficient FEEL framework that jointly leverages model pruning and client selection to tackle such challenges. First, we derive an information-theoretic generalization statement that characterizes the discrepancy between training and testing function losses and embed it into the convergence analysis. It reveals that a larger local generalization statement can undermine the global convergence. Then, we formulate a generalization-aware average squared gradient norm bound minimization problem, by jointly optimizing the pruning ratios, client selection, and communication-computation resources under energy and delay constraints. Despite its non-convexity, the resulting mixed-integer problem is efficiently solved via an alternating optimization algorithm. Extensive experiments demonstrate that the proposed design achieves superior learning performance than state-of-the-art baselines, validating the effectiveness of coupling generalization-aware analysis with system-level optimization for efficient FEEL.
- Abstract(参考訳): フェデレーションエッジ学習(FEEL)は、データプライバシを保持しながら協調的なモデルトレーニングを可能にすることにより、エッジ人工知能(AI)の有望な基盤を提供する。
しかし、限定的で異種なローカルデータセットとリソース制限されたデプロイメントは、モデル一般化とリソース利用の両方を著しく低下させ、学習性能を損なう結果となった。
そこで本研究では,モデルプルーニングとクライアント選択を併用して,パラメータ効率の高いFEELフレームワークを提案する。
まず、情報理論の一般化文を導出し、学習とテスト関数の損失の相違を特徴付け、収束解析に組み込む。
これは、より大きな局所一般化文が大域収束を損なう可能性があることを明らかにしている。
次に,エネルギーおよび遅延制約下でのプルーニング比,クライアント選択,通信計算資源の最適化を共同で行うことで,一般化に留意した平均2乗勾配ノルム境界最小化問題を定式化する。
非凸性にもかかわらず、結果として生じる混合整数問題は、交互最適化アルゴリズムによって効率よく解決される。
大規模な実験により,提案設計は最先端のベースラインよりも優れた学習性能を達成し,システムレベル最適化と統合一般化認識分析の有効性を検証した。
関連論文リスト
- FedLoDrop: Federated LoRA with Dropout for Generalized LLM Fine-tuning [65.26899091946417]
大規模言語モデル(LLM)は、特定のタスクに汎用モデルを適用するために不可欠である。
本稿では,FedLoDropを用いたFederated LoRAを提案する。FedLoDropは,Federated LoRAのトレーニング可能な行列の行と列にドロップアウトを適用する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-10-14T02:40:45Z) - Efficient Split Federated Learning for Large Language Models over Communication Networks [45.02252893286613]
分散方式で訓練済みの大規模言語モデル(LLM)を微調整することで、リソース制約のあるエッジネットワークにおいて大きな課題が生じる。
本稿では,分割フェデレーション学習とパラメータ効率のよい微調整技術を統合する新しいフレームワークであるSflLLMを提案する。
モデル分割とローランク適応(LoRA)を活用することにより、SflLLMはエッジデバイスの計算負担を軽減する。
論文 参考訳(メタデータ) (2025-04-20T16:16:54Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Invariant Federated Learning for Edge Intelligence: Mitigating Heterogeneity and Asynchrony via Exit Strategy and Invariant Penalty [10.54196990763149]
本稿では,資源制約付きエッジインテリジェンスのための不変なフェデレーション学習システムを提案する。
退避戦略と不変ペナルティを通じて異質性や非同期性の影響を軽減することができる。
その結果,本システムは分散処理性能を向上し,Out-Of-Distributionの一般化において最先端のアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2025-03-08T10:47:27Z) - Understanding Generalization of Federated Learning: the Trade-off between Model Stability and Optimization [34.520966684699665]
Federated Learning(FL)は、複数のデバイスで機械学習モデルをトレーニングする分散学習アプローチである。
本稿では,アルゴリズムの一般化性能向上のための革新的動的解析フレームワークである textitLibra を提案する。
より大きい局所的なステップや運動量によって勾配ノルムの収束が促進され、モデル安定性が悪化することを示す。
論文 参考訳(メタデータ) (2024-11-25T11:43:22Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。