論文の概要: Personalized Federated Learning with Bidirectional Communication Compression via One-Bit Random Sketching
- arxiv url: http://arxiv.org/abs/2511.13144v1
- Date: Mon, 17 Nov 2025 08:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.079914
- Title: Personalized Federated Learning with Bidirectional Communication Compression via One-Bit Random Sketching
- Title(参考訳): 1ビットランダムスケッチによる双方向コミュニケーション圧縮による個人化フェデレーション学習
- Authors: Jiacheng Cheng, Xu Zhang, Guanghui Qiu, Yifang Zhang, Yinchuan Li, Kaiyuan Feng,
- Abstract要約: フェデレートラーニング(FL)は、分散データ間の協調トレーニングを可能にする。
pFed1BSは,1ビットのランダムスケッチによる極端な通信圧縮を実現する,パーソナライズされたFLフレームワークである。
本フレームワークでは,クライアントが高度に圧縮された1ビットのスケッチを送信し,サーバが集約し,グローバルな1ビットのコンセンサスをブロードキャストする。
- 参考スコア(独自算出の注目度): 19.959825317183924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative training across decentralized data, but faces key challenges of bidirectional communication overhead and client-side data heterogeneity. To address communication costs while embracing data heterogeneity, we propose pFed1BS, a novel personalized federated learning framework that achieves extreme communication compression through one-bit random sketching. In personalized FL, the goal shifts from training a single global model to creating tailored models for each client. In our framework, clients transmit highly compressed one-bit sketches, and the server aggregates and broadcasts a global one-bit consensus. To enable effective personalization, we introduce a sign-based regularizer that guides local models to align with the global consensus while preserving local data characteristics. To mitigate the computational burden of random sketching, we employ the Fast Hadamard Transform for efficient projection. Theoretical analysis guarantees that our algorithm converges to a stationary neighborhood of the global potential function. Numerical simulations demonstrate that pFed1BS substantially reduces communication costs while achieving competitive performance compared to advanced communication-efficient FL algorithms.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散データ間の協調トレーニングを可能にするが、双方向通信オーバーヘッドとクライアント側データの異種性の主な課題に直面している。
pFed1BSは,1ビットのランダムスケッチによる極端な通信圧縮を実現する,個人化された新しい学習フレームワークである。
パーソナライズされたFLでは、ゴールは単一のグローバルモデルのトレーニングから、各クライアント用にカスタマイズされたモデルの作成へとシフトする。
本フレームワークでは,クライアントが高度に圧縮された1ビットのスケッチを送信し,サーバが集約し,グローバルな1ビットのコンセンサスをブロードキャストする。
実効的なパーソナライズを実現するために,局所的なデータ特性を保ちながら,グローバルなコンセンサスと整合するように,局所的なモデルを誘導するサインベースレギュレータを導入する。
ランダムスケッチの計算負担を軽減するために,高速アダマール変換を用いて効率的な投影を行う。
理論的解析により、我々のアルゴリズムは、大域的ポテンシャル関数の定常近傍に収束することが保証される。
数値シミュレーションにより,pFed1BSは通信効率の高いFLアルゴリズムと比較して,競争性能を保ちながら通信コストを大幅に削減することを示した。
関連論文リスト
- Communication-Efficient Personalized Federal Graph Learning via Low-Rank Decomposition [18.99572321624751]
通信効率の高いグラフ学習アルゴリズムであるCEFGLを提案する。
提案手法は,モデルパラメータを低ランクなジェネリックモデルとスパースなプライベートモデルに分解する。
局所的な知識をパーソナライズされた方法で学習するために,デュアルチャネルエンコーダを用いる。
論文 参考訳(メタデータ) (2024-12-18T02:26:07Z) - Personalized One-shot Federated Graph Learning for Heterogeneous Clients [11.438281045702976]
Federated Graph Learning (FGL)は、クライアントのニーズに合わせてパーソナライズされたモデルをトレーニングすることで、モデルユーティリティの向上を目指している。
既存のpFGL法では、異種グラフの下で多数の通信ラウンドが必要となる。
ワンショットフェデレートラーニング(OFL)は、単一のラウンドでのコラボレーションを可能にするが、グラフデータには有効ではない。
ローカルな個人情報とグローバルな洞察を適応的にバランスさせる2段階のパーソナライズドトレーニングアプローチを導入する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Deep Equilibrium Learning: Harnessing Compact Global Representations to Enhance Personalization [23.340237814344377]
Federated Learning(FL)は、クライアントがデータを交換することなくグローバルモデルを協調的にトレーニングできる、画期的な分散学習パラダイムとして登場した。
FeDEQは,高効率なパーソナライズのために,コンパクトなグローバルデータ表現を利用するために,深い平衡学習とコンセンサス最適化を取り入れた新しいFLフレームワークである。
FeDEQは,訓練中の通信サイズを最大4倍,メモリフットプリントを1.5倍に削減しつつ,最先端のパーソナライズされたFL法の性能に適合することを示した。
論文 参考訳(メタデータ) (2023-09-27T13:48:12Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Comfetch: Federated Learning of Large Networks on Constrained Clients
via Sketching [28.990067638230254]
フェデレートラーニング(FL)は、エッジ上でのプライベートおよびコラボレーティブモデルトレーニングの一般的なパラダイムである。
我々は,グローバルニューラルネットワークの表現を用いて,クライアントが大規模ネットワークをトレーニングできる新しいアルゴリズムであるComdirectionalを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。