論文の概要: Federated Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2312.15966v1
- Date: Tue, 26 Dec 2023 09:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:34:13.181332
- Title: Federated Hyperdimensional Computing
- Title(参考訳): フェデレーション超次元計算
- Authors: Kazim Ergun, Rishikanth Chandrasekaran, Tajana Rosing
- Abstract要約: フェデレートラーニング(FL)は、参加するクライアントの緩やかなセットが、中央サーバによる調整を通じて、グローバルモデルを協調的に学習することを可能にする。
既存のFLアプローチは、ディープニューラルネットワーク(DNN)のような巨大なモデルを持つ複雑なアルゴリズムに依存している。
我々はまず,超次元コンピューティング(HDC)に基づくフェデレーション学習フレームワークであるFedHDCを提案する。
- 参考スコア(独自算出の注目度): 14.844383542052169
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables a loose set of participating clients to
collaboratively learn a global model via coordination by a central server and
with no need for data sharing. Existing FL approaches that rely on complex
algorithms with massive models, such as deep neural networks (DNNs), suffer
from computation and communication bottlenecks. In this paper, we first propose
FedHDC, a federated learning framework based on hyperdimensional computing
(HDC). FedHDC allows for fast and light-weight local training on clients,
provides robust learning, and has smaller model communication overhead compared
to learning with DNNs. However, current HDC algorithms get poor accuracy when
classifying larger & more complex images, such as CIFAR10. To address this
issue, we design FHDnn, which complements FedHDC with a self-supervised
contrastive learning feature extractor. We avoid the transmission of the DNN
and instead train only the HDC learner in a federated manner, which accelerates
learning, reduces transmission cost, and utilizes the robustness of HDC to
tackle network errors. We present a formal analysis of the algorithm and derive
its convergence rate both theoretically, and show experimentally that FHDnn
converges 3$\times$ faster vs. DNNs. The strategies we propose to improve the
communication efficiency enable our design to reduce communication costs by
66$\times$ vs. DNNs, local client compute and energy consumption by ~1.5 -
6$\times$, while being highly robust to network errors. Finally, our proposed
strategies for improving the communication efficiency have up to 32$\times$
lower communication costs with good accuracy.
- Abstract(参考訳): フェデレートラーニング(FL)により、参加するクライアントの緩やかなセットが、中央サーバによる調整を通じて、データ共有を必要とせずに、グローバルモデルを共同で学習することが可能になる。
ディープニューラルネットワーク(DNN)のような巨大なモデルを持つ複雑なアルゴリズムに依存する既存のFLアプローチは、計算と通信のボトルネックに悩まされている。
本稿ではまず,超次元コンピューティング(HDC)に基づくフェデレーション学習フレームワークであるFedHDCを提案する。
FedHDCは、クライアント上で高速で軽量なローカルトレーニングを可能にし、堅牢な学習を提供し、DNNでの学習に比べてモデル通信オーバーヘッドが小さい。
しかし、現在のHDCアルゴリズムは、CIFAR10のようなより大きく複雑な画像を分類する際に、精度が低い。
この問題に対処するため、FedHDCを自己教師付きコントラスト学習機能抽出器で補完するFHDnnを設計する。
我々は、DNNの送信を回避し、その代わりに、学習を加速し、伝送コストを低減し、HDCの堅牢性を利用してネットワークエラーに対処する、HDC学習者のみを訓練する。
アルゴリズムの形式的解析を行い,その収束率を理論的に導出し,fhdnnがdnnよりも3$\times$高速に収束することを示す。
通信効率を向上させるために提案する戦略は,通信コストを66$\times$対DNN,ローカルクライアント計算,エネルギー消費を1.56$\times$で削減すると同時に,ネットワークエラーに対して堅牢である。
最後に, 通信効率を向上させるための提案手法は, 通信コストを32$\times$下げることができ, 精度がよい。
関連論文リスト
- The Robustness of Spiking Neural Networks in Communication and its Application towards Network Efficiency in Federated Learning [6.9569682335746235]
スパイキングニューラルネットワーク(SNN)は最近、組み込みデバイスでのオンチップ学習に多大な関心を集めている。
本稿では,フェデレートラーニングにおける雑音の多いコミュニケーション下でのSNNの本質的ロバスト性について検討する。
FLトレーニングにおける帯域幅の削減を目的とした,TopKスパシフィケーションを用いた新しいフェデレートラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-19T13:37:18Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - SPATL: Salient Parameter Aggregation and Transfer Learning for
Heterogeneous Clients in Federated Learning [3.5394650810262336]
効率的なフェデレーション学習は、エッジデバイス上でAIモデルをトレーニングしデプロイする上で重要な課題の1つだ。
フェデレーション学習におけるデータのプライバシの維持は、データの均一性、高価な通信コスト、限られたリソースなど、いくつかの課題を引き起こす。
本稿では,ローカルクライアントの深層強化学習に基づく有能なパラメータ選択エージェントを提案し,選択した有能なパラメータを中央サーバに集約する。
論文 参考訳(メタデータ) (2021-11-29T06:28:05Z) - ProgFed: Effective, Communication, and Computation Efficient Federated Learning by Progressive Training [65.68511423300812]
本稿では,効率的なフェデレート学習のためのプログレッシブトレーニングフレームワークであるProgFedを提案する。
ProgFedは計算と双方向通信のコストを本質的に低減し、最終モデルの強力な性能を維持している。
以上の結果から, ProgFed はフルモデルの標準トレーニングと同等の速度で収束することがわかった。
論文 参考訳(メタデータ) (2021-10-11T14:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。