論文の概要: BiCoLoR: Communication-Efficient Optimization with Bidirectional Compression and Local Training
- arxiv url: http://arxiv.org/abs/2601.12400v1
- Date: Sun, 18 Jan 2026 13:23:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.612844
- Title: BiCoLoR: Communication-Efficient Optimization with Bidirectional Compression and Local Training
- Title(参考訳): BiCoLoR:双方向圧縮と局所訓練によるコミュニケーション効率の良い最適化
- Authors: Laurent Condat, Artavazd Maranjyan, Peter Richtárik,
- Abstract要約: BiCoLoRは、ローカルトレーニングと圧縮という2つの広く使われている戦略を組み合わせた通信効率の最適化アルゴリズムである。
BiCoLoRは既存のアルゴリズムより優れており、通信効率の新たな標準を確立している。
- 参考スコア(独自算出の注目度): 50.334494587223304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Slow and costly communication is often the main bottleneck in distributed optimization, especially in federated learning where it occurs over wireless networks. We introduce BiCoLoR, a communication-efficient optimization algorithm that combines two widely used and effective strategies: local training, which increases computation between communication rounds, and compression, which encodes high-dimensional vectors into short bitstreams. While these mechanisms have been combined before, compression has typically been applied only to uplink (client-to-server) communication, leaving the downlink (server-to-client) side unaddressed. In practice, however, both directions are costly. We propose BiCoLoR, the first algorithm to combine local training with bidirectional compression using arbitrary unbiased compressors. This joint design achieves accelerated complexity guarantees in both convex and strongly convex heterogeneous settings. Empirically, BiCoLoR outperforms existing algorithms and establishes a new standard in communication efficiency.
- Abstract(参考訳): 遅くてコストのかかるコミュニケーションは、分散最適化の主要なボトルネックであり、特に無線ネットワーク上で起こるフェデレーション学習においてである。
通信効率の最適化アルゴリズムであるBiCoLoRを導入し,通信ラウンド間の計算量を増加させるローカルトレーニングと,高次元ベクトルを短いビットストリームにエンコードする圧縮の2つの戦略を組み合わせた。
これらのメカニズムは以前に統合されたが、圧縮は通常、アップリンク(クライアントからサーバへの)通信にのみ適用され、ダウンリンク(サーバからクライアントへの)側は未修正のままである。
しかし実際には、どちらの方向も費用がかかる。
任意の非バイアス圧縮機を用いて局所学習と双方向圧縮を組み合わせた最初のアルゴリズムであるBiCoLoRを提案する。
この共同設計は、凸と強凸の不均一な設定の両方において、加速された複雑性を保証する。
実証的に、BiCoLoRは既存のアルゴリズムより優れており、通信効率の新たな標準を確立している。
関連論文リスト
- LoCoDL: Communication-Efficient Distributed Learning with Local Training and Compression [56.01900711954956]
そこで我々はLoCoDL(LoCoDL)と,フロートの実次元ベクトルの代わりに短いビットストリームが送信される圧縮(Compression)という,ローカルトレーニングの一般的かつ効果的な2つの手法を利用する通信効率の高いアルゴリズムを紹介した。
LoCoDLは、局所的な訓練と圧縮の恩恵を受け、強い凸関数を持つ一般的な異種体制において、関数の条件数とモデル次元に関して、二重に加速された通信複雑性を享受する。
論文 参考訳(メタデータ) (2024-03-07T09:22:50Z) - Communication-Efficient Distributed Learning with Local Immediate Error
Compensation [95.6828475028581]
本稿では,局所的即時誤差補償SGD (LIEC-SGD) 最適化アルゴリズムを提案する。
LIEC-SGDは、コンバージェンスレートまたは通信コストのいずれにおいても、以前の研究よりも優れている。
論文 参考訳(メタデータ) (2024-02-19T05:59:09Z) - Improving the Worst-Case Bidirectional Communication Complexity for Nonconvex Distributed Optimization under Function Similarity [92.1840862558718]
ダウンリンク圧縮のための新しい手法であるMARINA-Pを導入する。
置換圧縮機を用いたMARINA-Pは、作業者数に応じてサーバ間通信の複雑さを向上できることを示す。
本稿では,MARINA-Pとアップリンク圧縮とモーメントステップを組み合わせた手法であるM3を導入する。
論文 参考訳(メタデータ) (2024-02-09T13:58:33Z) - TAMUNA: Doubly Accelerated Distributed Optimization with Local Training, Compression, and Partial Participation [53.84175614198885]
分散最適化と学習では、複数のマシンが並列にローカル計算と遠隔サーバとの通信を交互に行う。
ローカルトレーニングと圧縮の2つの戦略を共同で活用し,部分的参加を可能にする分散最適化のための最初のアルゴリズムであるTAMUNAを提案する。
論文 参考訳(メタデータ) (2023-02-20T08:37:44Z) - Provably Doubly Accelerated Federated Learning: The First Theoretically
Successful Combination of Local Training and Compressed Communication [7.691755449724637]
分散最適化とフェデレート学習のための最初のアルゴリズムを提案する。
我々のアルゴリズムは2倍の加速速度で直線的に正確な解に収束する。
論文 参考訳(メタデータ) (2022-10-24T14:13:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。