論文の概要: FedUHD: Unsupervised Federated Learning using Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2508.12021v1
- Date: Sat, 16 Aug 2025 11:41:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.515251
- Title: FedUHD: Unsupervised Federated Learning using Hyperdimensional Computing
- Title(参考訳): FedUHD:超次元コンピューティングを用いた教師なしのフェデレーションラーニング
- Authors: You Hak Lee, Xiaofan Yu, Quanling Zhao, Flavio Ponzina, Tajana Rosing,
- Abstract要約: 我々は超次元計算(HDC)に基づく最初のUFLフレームワークであるFedUHDを提案する。
FedUHDは最大173.6xと612.7倍のスピードアップとエネルギー効率を実現し、訓練では最大271倍の通信コスト、様々な設定で平均15.50%の精度を実現している。
- 参考スコア(独自算出の注目度): 6.723189987831009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised federated learning (UFL) has gained attention as a privacy-preserving, decentralized machine learning approach that eliminates the need for labor-intensive data labeling. However, UFL faces several challenges in practical applications: (1) non-independent and identically distributed (non-iid) data distribution across devices, (2) expensive computational and communication costs at the edge, and (3) vulnerability to communication noise. Previous UFL approaches have relied on deep neural networks (NN), which introduce substantial overhead in both computation and communication. In this paper, we propose FedUHD, the first UFL framework based on Hyperdimensional Computing (HDC). HDC is a brain-inspired computing scheme with lightweight training and inference operations, much smaller model size, and robustness to communication noise. FedUHD introduces two novel HDC-based designs to improve UFL performance. On the client side, a kNN-based cluster hypervector removal method addresses non-iid data samples by eliminating detrimental outliers. On the server side, a weighted HDC aggregation technique balances the non-iid data distribution across clients. Our experiments demonstrate that FedUHD achieves up to 173.6x and 612.7x better speedup and energy efficiency, respectively, in training, up to 271x lower communication cost, and 15.50% higher accuracy on average across diverse settings, along with superior robustness to various types of noise compared to state-of-the-art NN-based UFL approaches.
- Abstract(参考訳): Unsupervised Federated Learning (UFL)は、労働集約的なデータラベリングの必要性を排除する、プライバシ保護、分散機械学習アプローチとして注目を集めている。
しかし、UFLは、(1)デバイス間で非独立で同一に分散した(非ID)データ分散、(2)エッジにおける高価な計算・通信コスト、(3)通信ノイズに対する脆弱性といった実用上の課題に直面している。
従来のUFLアプローチはディープニューラルネットワーク(NN)に依存しており、計算と通信の両方にかなりのオーバーヘッドが伴っている。
本稿では,超次元計算(HDC)に基づく初のUFLフレームワークであるFedUHDを提案する。
HDCは、軽量なトレーニングと推論操作、はるかに小さなモデルサイズ、通信ノイズに対する堅牢性を備えた、脳にインスパイアされたコンピューティングスキームである。
FedUHDはUFLの性能を改善するために2つの新しいHDCベースの設計を導入した。
クライアント側では、kNNベースのクラスタハイパーベクター除去法が、有害なアウトレイラを排除して非IDデータサンプルに対処する。
サーバ側では、重み付けされたHDCアグリゲーション技術がクライアント間の非IDデータ分散のバランスをとる。
実験により,FedUHDはトレーニングにおいて最大173.6倍,612.7倍の高速化を実現し,通信コストを最大271倍,様々な環境において平均15.50%の精度を実現した。
関連論文リスト
- Communication-Efficient Zero-Order and First-Order Federated Learning Methods over Wireless Networks [14.744958242029721]
Federated Learning (FL)は、エッジデバイスがローカルデータを共有せずに、協調的にMLモデルをトレーニングすることを可能にする。
FLは、トレーニングフェーズにおいて、デバイスとアグリゲータの間で大量の情報を交換する必要があるため、重大な課題に直面します。
2つの通信効率の高いFL法は、長いベクトルの代わりにスカラー値を通信することで通信オーバーヘッドを低減できると考えられる。
論文 参考訳(メタデータ) (2025-08-11T14:16:23Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Hyperdimensional Computing [14.844383542052169]
フェデレートラーニング(FL)は、参加するクライアントの緩やかなセットが、中央サーバによる調整を通じて、グローバルモデルを協調的に学習することを可能にする。
既存のFLアプローチは、ディープニューラルネットワーク(DNN)のような巨大なモデルを持つ複雑なアルゴリズムに依存している。
我々はまず,超次元コンピューティング(HDC)に基づくフェデレーション学習フレームワークであるFedHDCを提案する。
論文 参考訳(メタデータ) (2023-12-26T09:24:19Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Sparse Decentralized Federated Learning [35.32297764027417]
分散フェデレートラーニング(DFL)は、中央サーバーなしで協調的なモデルトレーニングを可能にするが、効率、安定性、信頼性の課題に直面している。
Sparse DFL (SDFL) に繋がる共有モデルに空間制約を導入し,新しいアルゴリズムCEPSを提案する。
数値実験により,高い信頼性を維持しつつ,コミュニケーションと効率を向上させるための提案アルゴリズムの有効性が検証された。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - sqSGD: Locally Private and Communication Efficient Federated Learning [14.60645909629309]
Federated Learning(FL)は、分散データソースから機械学習モデルをトレーニングするテクニックである。
我々は,通信効率と高次元互換性に対処するsqSGDという勾配学習アルゴリズムを開発した。
実験の結果、sqSGDはローカルのプライバシー制約でLeNetやResNetのような大規模なモデルをうまく学習している。
論文 参考訳(メタデータ) (2022-06-21T17:45:35Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。