論文の概要: Compressed Particle-Based Federated Bayesian Learning and Unlearning
- arxiv url: http://arxiv.org/abs/2209.07267v1
- Date: Wed, 14 Sep 2022 07:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 13:41:18.593966
- Title: Compressed Particle-Based Federated Bayesian Learning and Unlearning
- Title(参考訳): 圧縮粒子に基づくフェデレーションベイズ学習とアンラーニング
- Authors: Jinu Gong, Osvaldo Simeone, and Joonhyuk Kang
- Abstract要約: 本文は,通信帯域制限時のキャリブレーションにおいて,ベイジアンFLが依然として有利であるかどうかを考察する。
我々は、FLのための圧縮粒子ベースのベイズFLプロトコルと、複数の粒子にまたがる量子化とスパーシフィケーションを適用したフェデレーション「アンラーニング」を提案する。
- 参考スコア(独自算出の注目度): 33.56047169487272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional frequentist FL schemes are known to yield overconfident
decisions. Bayesian FL addresses this issue by allowing agents to process and
exchange uncertainty information encoded in distributions over the model
parameters. However, this comes at the cost of a larger per-iteration
communication overhead. This letter investigates whether Bayesian FL can still
provide advantages in terms of calibration when constraining communication
bandwidth. We present compressed particle-based Bayesian FL protocols for FL
and federated "unlearning" that apply quantization and sparsification across
multiple particles. The experimental results confirm that the benefits of
Bayesian FL are robust to bandwidth constraints.
- Abstract(参考訳): 従来の頻度主義的FLスキームは、過度な決定を下すことが知られている。
ベイジアンFLはモデルパラメータ上の分布に符号化された不確実性情報の処理と交換を可能にすることでこの問題に対処する。
しかしこれは、イテレーション毎の通信オーバーヘッドが大きくなるというコストが伴う。
本文は,通信帯域制限時のキャリブレーションにおいて,ベイジアンFLが依然として有利であるかどうかを考察する。
本稿では,複数の粒子にまたがる量子化とスパース化を応用した,flおよびfederated "unlearning"のための圧縮粒子ベースのベイズflプロトコルを提案する。
実験の結果,ベイズFLの利点は帯域幅制約に頑健であることが確認された。
関連論文リスト
- Compressed Bayesian Federated Learning for Reliable Passive Radio Sensing in Industrial IoT [4.577725168794258]
本稿では,学習精度と校正を犠牲にすることなく通信オーバーヘッドを低減するために,通信効率の高い分散化ベイズFLポリシーを提案する。
我々は,自律型レーダセンサを備えた協調ノードが,ロボットと共有する職場で人間のオペレーターを確実にローカライズする作業を行う,産業用IoT(Industrial Internet of Things)のユースケースに,この開発ツールを統合する。
その結果,従来の(圧縮されていない)ベイズ式FLツールと互換性があり,通信オーバーヘッドを著しく低減し(最大99%),高精度かつよく校正されたMLモデルが得られることがわかった。
論文 参考訳(メタデータ) (2024-05-09T15:44:11Z) - Joint Energy and Latency Optimization in Federated Learning over Cell-Free Massive MIMO Networks [36.6868658064971]
Federated Learning(FL)は、ユーザが生のデータセットではなくサーバとFLモデルを交換する分散学習パラダイムである。
セルフリーの大規模マルチインプット多重出力(CFmMIMO)はFLを実装する上で有望なアーキテクチャである。
本稿では、各ユーザの電力が他のユーザのエネルギーとレイテンシに与える影響を考慮し、FLにおけるCFmMIMO上のアップリンク電力割り当て方式を提案する。
論文 参考訳(メタデータ) (2024-04-28T19:24:58Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Harnessing the Power of Federated Learning in Federated Contextual Bandits [20.835106310302876]
FCB(Federated contextual bandits)は、FLとシーケンシャルな意思決定の重要な統合である。
FCBアプローチは、しばしば標準FLフレームワークから逸脱する、調整されたFLコンポーネントを主に採用している。
特に、回帰に基づくCBアルゴリズムを活用するために、FedIGWと呼ばれる新しいFCB設計が提案されている。
論文 参考訳(メタデータ) (2023-12-26T21:44:09Z) - Federated Learning with Flexible Control [30.65854375019346]
フェデレートラーニング(FL)は、ユーザが収集したローカルデータから分散モデルトレーニングを可能にする。
制約のあるリソースと潜在的に高いダイナミクスを持つ分散システムでは、例えばモバイルエッジネットワークでは、FLの効率が重要な問題である。
フレキシブルに調整可能な複数のオプションを持つFLアルゴリズムであるFlexFLを提案する。
論文 参考訳(メタデータ) (2022-12-16T14:21:29Z) - Federated Learning Hyper-Parameter Tuning from a System Perspective [23.516484538620745]
Federated Learning(FL)は、クライアントのデータプライバシを保存する分散モデルトレーニングパラダイムである。
FLハイパーパラメータを手動で選択する現在の実践は、FL実践者に重荷を課す。
本稿では,アプリケーションの多様なシステム要件に合わせて自動FLハイパーパラメータチューニングアルゴリズムであるFedTuneを提案する。
論文 参考訳(メタデータ) (2022-11-24T15:15:28Z) - Performance Optimization for Variable Bitwidth Federated Learning in
Wireless Networks [103.22651843174471]
本稿では,モデル量子化による統合学習(FL)における無線通信と計算効率の向上について考察する。
提案したビット幅FL方式では,エッジデバイスは局所FLモデルパラメータの量子化バージョンを調整し,コーディネートサーバに送信し,それらを量子化されたグローバルモデルに集約し,デバイスを同期させる。
FLトレーニングプロセスはマルコフ決定プロセスとして記述でき、反復よりも行動選択を最適化するためのモデルベース強化学習(RL)手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T08:52:51Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Optimization of User Selection and Bandwidth Allocation for Federated
Learning in VLC/RF Systems [96.56895050190064]
限定無線周波数(rf)リソースは、連合学習(fl)に参加可能なユーザ数を制限する。
本稿では、FLにおけるRFの補足として可視光通信(VLC)を導入し、ハイブリッドVLC/RF通信システムを構築する。
ハイブリッドVLC/RFシステム上で実装されたFLのユーザ選択と帯域幅割り当ての問題について検討した。
論文 参考訳(メタデータ) (2021-03-05T02:44:56Z) - Delay Minimization for Federated Learning Over Wireless Communication
Networks [172.42768672943365]
無線通信ネットワーク上でのフェデレーション学習(FL)における遅延計算の問題について検討した。
最適解を得るために,二項探索アルゴリズムを提案する。
シミュレーションの結果,提案アルゴリズムは従来のFL法と比較して最大27.3%遅延を低減できることがわかった。
論文 参考訳(メタデータ) (2020-07-05T19:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。