論文の概要: Federated Learning via Plurality Vote
- arxiv url: http://arxiv.org/abs/2110.02998v1
- Date: Wed, 6 Oct 2021 18:16:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 15:57:56.341483
- Title: Federated Learning via Plurality Vote
- Title(参考訳): 複数の投票による連合学習
- Authors: Kai Yue, Richeng Jin, Chau-Wai Wong, Huaiyu Dai
- Abstract要約: フェデレートされた学習は、データプライバシを保持しながら、共同作業者が機械学習の問題を解決することを可能にする。
最近の研究は、連合学習における様々な課題に取り組んできた。
複数の投票によるフェデレーション学習(FedVote)という新しい手法を提案する。
- 参考スコア(独自算出の注目度): 38.778944321534084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows collaborative workers to solve a machine learning
problem while preserving data privacy. Recent studies have tackled various
challenges in federated learning, but the joint optimization of communication
overhead, learning reliability, and deployment efficiency is still an open
problem. To this end, we propose a new scheme named federated learning via
plurality vote (FedVote). In each communication round of FedVote, workers
transmit binary or ternary weights to the server with low communication
overhead. The model parameters are aggregated via weighted voting to enhance
the resilience against Byzantine attacks. When deployed for inference, the
model with binary or ternary weights is resource-friendly to edge devices. We
show that our proposed method can reduce quantization error and converges
faster compared with the methods directly quantizing the model updates.
- Abstract(参考訳): フェデレートされた学習は、データプライバシを保持しながら、共同作業者が機械学習の問題を解決することを可能にする。
近年、連合学習における様々な課題に取り組んできたが、コミュニケーションオーバーヘッド、学習信頼性、デプロイメント効率の協調最適化は依然として未解決の問題である。
そこで本稿では,複数投票によるフェデレーション学習(FedVote)という新しい手法を提案する。
FedVoteの各通信ラウンドでは、ワーカは通信オーバーヘッドの少ないサーバにバイナリまたは3次重みを送信する。
モデルパラメータは重み付け投票によって集約され、ビザンチン攻撃に対するレジリエンスを高める。
推論のためにデプロイされる場合、バイナリまたは3次重みを持つモデルは、エッジデバイスに対してリソースフレンドリである。
提案手法は, モデル更新を直接定量化する手法と比較して, 量子化誤差を低減し, 収束を高速化できることを示す。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Unlearning via Active Forgetting [24.060724751342047]
インクリメンタルラーニングに基づく新しいフェデレーション・アンラーニング・フレームワークを提案する。
我々のフレームワークは、近似的再学習やデータ影響推定に依存する既存の非学習手法とは異なる。
論文 参考訳(メタデータ) (2023-07-07T03:07:26Z) - Federated Learning of Neural ODE Models with Different Iteration Counts [0.9444784653236158]
フェデレーテッド・ラーニング(Federated Learning)とは、クライアントが自身のデータをローカルにトレーニングしてサーバにアップロードする分散機械学習アプローチである。
本稿では,ニューラルネットワークをベースとしたモデルを用いてフェデレート学習を行う。
我々は,CIFAR-10データセットを用いたベースラインResNetモデルと比較して,通信サイズを最大92.4%削減できることを示す。
論文 参考訳(メタデータ) (2022-08-19T17:57:32Z) - FedNew: A Communication-Efficient and Privacy-Preserving Newton-Type
Method for Federated Learning [75.46959684676371]
我々は、クライアントからPSにヘッセン情報を送信する必要がないFedNewという新しいフレームワークを紹介した。
FedNewは勾配情報を隠蔽し、既存の最先端技術と比べてプライバシー保護のアプローチをもたらす。
論文 参考訳(メタデータ) (2022-06-17T15:21:39Z) - Federated Two-stage Learning with Sign-based Voting [45.2715985913761]
フェデレートラーニング(Federated Learning)は、ローカルデバイスが共同で共有グローバルモデルをトレーニングする分散機械学習メカニズムである。
最近の大規模でより深い機械学習モデルもまた、連合した環境にそれらをデプロイする上でさらに困難を伴っている。
本稿では,デバイス上のカット層を用いて,原型的フェデレーション学習を増強する2段階学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-12-10T17:31:23Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Adaptive Federated Dropout: Improving Communication Efficiency and
Generalization for Federated Learning [6.982736900950362]
フェデレートラーニング(Federated Learning)として知られる、革命的な分散機械学習設定により、異なる地理的場所に位置する複数のクライアントが、機械学習モデルの共同学習が可能になる。
クライアントとサーバ間のコミュニケーションは、連合学習の収束時間における主要なボトルネックと考えられている。
本稿では,適応型フェデレート・ドロップアウト(AFD)を提案する。
論文 参考訳(メタデータ) (2020-11-08T18:41:44Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。