論文の概要: Towards Heterogeneity-Aware and Energy-Efficient Topology Optimization for Decentralized Federated Learning in Edge Environment
- arxiv url: http://arxiv.org/abs/2508.08278v1
- Date: Fri, 01 Aug 2025 03:07:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-17 22:58:06.16355
- Title: Towards Heterogeneity-Aware and Energy-Efficient Topology Optimization for Decentralized Federated Learning in Edge Environment
- Title(参考訳): エッジ環境における分散型フェデレーション学習のための不均一性とエネルギー効率の良いトポロジー最適化に向けて
- Authors: Yuze Liu, Tiehua Zhang, Zhishu Shen, Libing Wu, Shiping Chen, Jiong Jin,
- Abstract要約: フェデレートラーニング(FL)はエッジコンピューティング(EC)システムにおいて有望なパラダイムとして登場した。
異種認識とコセット有効分散学習(DFL)フレームワークであるHat-DFedを提案する。
- 参考スコア(独自算出の注目度): 11.034856549533885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm within edge computing (EC) systems, enabling numerous edge devices to collaboratively train artificial intelligence (AI) models while maintaining data privacy. To overcome the communication bottlenecks associated with centralized parameter servers, decentralized federated learning (DFL), which leverages peer-to-peer (P2P) communication, has been extensively explored in the research community. Although researchers design a variety of DFL approach to ensure model convergence, its iterative learning process inevitably incurs considerable cost along with the growth of model complexity and the number of participants. These costs are largely influenced by the dynamic changes of topology in each training round, particularly its sparsity and connectivity conditions. Furthermore, the inherent resources heterogeneity in the edge environments affects energy efficiency of learning process, while data heterogeneity degrades model performance. These factors pose significant challenges to the design of an effective DFL framework for EC systems. To this end, we propose Hat-DFed, a heterogeneity-aware and coset-effective decentralized federated learning (DFL) framework. In Hat-DFed, the topology construction is formulated as a dual optimization problem, which is then proven to be NP-hard, with the goal of maximizing model performance while minimizing cumulative energy consumption in complex edge environments. To solve this problem, we design a two-phase algorithm that dynamically constructs optimal communication topologies while unbiasedly estimating their impact on both model performance and energy cost. Additionally, the algorithm incorporates an importance-aware model aggregation mechanism to mitigate performance degradation caused by data heterogeneity.
- Abstract(参考訳): フェデレートラーニング(FL)はエッジコンピューティング(EC)システムにおいて有望なパラダイムとして登場し、データプライバシを維持しながら、多数のエッジデバイスが人工知能(AI)モデルを協調的にトレーニングすることを可能にする。
集中型パラメータサーバに関連する通信ボトルネックを克服するため,P2P通信を活用した分散型フェデレーションラーニング(DFL)が研究コミュニティで広く研究されている。
研究者はモデル収束を保証するために様々なDFLアプローチを設計するが、その反復学習プロセスは、モデル複雑性の増大と参加者数の増加とともに、必然的にかなりのコストを発生させる。
これらのコストは、トレーニングラウンドごとのトポロジの動的変化、特にその幅と接続条件に大きく影響される。
さらに、エッジ環境における固有の資源の不均一性は学習プロセスのエネルギー効率に影響を与えるが、データの不均一性はモデル性能を低下させる。
これらの要因は、ECシステムのための効果的なDFLフレームワークの設計に重大な課題をもたらす。
この目的のために、異種性とコセット有効分散学習(DFL)フレームワークであるHat-DFedを提案する。
Hat-DFedでは、トポロジー構造は二重最適化問題として定式化され、NPハードであることが証明され、モデル性能を最大化し、複雑なエッジ環境における累積エネルギー消費を最小化する。
この問題を解決するために、モデル性能とエネルギーコストの両方への影響を不偏に見積もって、最適な通信トポロジを動的に構築する2相アルゴリズムを設計する。
さらに,このアルゴリズムは,データの不均一性による性能劣化を軽減するために,重要認識モデルアグリゲーション機構を組み込んでいる。
関連論文リスト
- Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Beyond Model Scale Limits: End-Edge-Cloud Federated Learning with Self-Rectified Knowledge Agglomeration [13.056361971363902]
自己認識型知識集約(FedEEC)を用いたエンドエッジクラウドフェデレーション学習を提案する。
FedEECは、EECCを内蔵した新しいFLフレームワークで、エンド、エッジ、クラウドといったトレーニングされたモデルが、サイズが大きくなり、能力も向上する。
論文 参考訳(メタデータ) (2025-01-01T01:11:16Z) - Heterogeneity-Aware Resource Allocation and Topology Design for Hierarchical Federated Edge Learning [9.900317349372383]
Federated Learning (FL)は、モバイルデバイス上で機械学習モデルをトレーニングするためのプライバシー保護フレームワークを提供する。
従来のFLアルゴリズム、例えばFedAvgはこれらのデバイスに重い通信負荷を課す。
エッジデバイスをエッジサーバに接続し,エッジサーバをピアツーピア(P2P)エッジバックホールを介して相互接続する2層HFELシステムを提案する。
我々の目標は、戦略的資源配分とトポロジ設計により、HFELシステムの訓練効率を向上させることである。
論文 参考訳(メタデータ) (2024-09-29T01:48:04Z) - FedAC: An Adaptive Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ化フェデレーション学習(CFL)は、データ不均一性から生じる性能劣化を軽減するために提案される。
我々は,グローバル知識をクラスタ内学習に効率的に統合する適応型CFLフレームワークFedACを提案する。
実験の結果、FedACは試験精度が1.82%、12.67%向上した。
論文 参考訳(メタデータ) (2024-03-25T06:43:28Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - CorrFL: Correlation-Based Neural Network Architecture for Unavailability
Concerns in a Heterogeneous IoT Environment [3.9414768019101682]
連邦学習(FL)パラダイムは、現実の環境での適用を制限するいくつかの課題に直面しています。
これらの課題には、ローカルモデルのアーキテクチャの不均一性と、接続上の問題により分散IoT(Internet of Things)ノードが利用できないことが含まれる。
本稿では,この問題に対処するための表現型学習分野の影響を受け,相関型FL (CorrFL) アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-22T19:23:06Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。