論文の概要: Federated Select: A Primitive for Communication- and Memory-Efficient
Federated Learning
- arxiv url: http://arxiv.org/abs/2208.09432v1
- Date: Fri, 19 Aug 2022 16:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-22 17:43:00.515546
- Title: Federated Select: A Primitive for Communication- and Memory-Efficient
Federated Learning
- Title(参考訳): Federated Select: コミュニケーションとメモリ効率のよいフェデレーション学習のためのプリミティブ
- Authors: Zachary Charles, Kallista Bonawitz, Stanislav Chiknavaryan, Brendan
McMahan, Blaise Ag\"uera y Arcas
- Abstract要約: Federated Learning(FL)は、異種クライアントデバイス間で機械学習を行うためのフレームワークである。
クライアントがどの値を送信するかを"選択"する,より一般的な手順を提案する。
これにより、クライアントは小さなデータ依存スライスで操作できる。
- 参考スコア(独自算出の注目度): 4.873569522869751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a framework for machine learning across
heterogeneous client devices in a privacy-preserving fashion. To date, most FL
algorithms learn a "global" server model across multiple rounds. At each round,
the same server model is broadcast to all participating clients, updated
locally, and then aggregated across clients. In this work, we propose a more
general procedure in which clients "select" what values are sent to them.
Notably, this allows clients to operate on smaller, data-dependent slices. In
order to make this practical, we outline a primitive, federated select, which
enables client-specific selection in realistic FL systems. We discuss how to
use federated select for model training and show that it can lead to drastic
reductions in communication and client memory usage, potentially enabling the
training of models too large to fit on-device. We also discuss the implications
of federated select on privacy and trust, which in turn affect possible system
constraints and design. Finally, we discuss open questions concerning model
architectures, privacy-preserving technologies, and practical FL systems.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、異種クライアントデバイス間のマシンラーニングのためのフレームワークである。
現在、ほとんどのFLアルゴリズムは複数のラウンドで"グローバル"サーバーモデルを学習している。
各ラウンドで、同じサーバモデルを参加するすべてのクライアントにブロードキャストし、ローカルに更新し、クライアント間で集約する。
本研究では,クライアントがどの値が送信されるかを"選択"する,より一般的な手順を提案する。
これにより、クライアントはより小さなデータ依存スライスで操作できる。
これを実現するために,現実のflシステムにおいてクライアント固有の選択を可能にするプリミティブなフェデレーションセレクトを概説する。
我々は、モデルトレーニングにフェデレートセレクトをどのように使うかについて議論し、それが通信とクライアントメモリ使用量を大幅に削減し、デバイスに適合するには大きすぎるモデルのトレーニングを可能にする可能性があることを示す。
また,システムの制約や設計に影響を与えるプライバシと信頼に関するフェデレーション選択の影響についても論じる。
最後に,モデルアーキテクチャ,プライバシ保護技術,実用的なflシステムに関するオープン質問について論じる。
関連論文リスト
- FedConv: A Learning-on-Model Paradigm for Heterogeneous Federated Clients [25.847042398060616]
フェデレートラーニング(FL)は、クライアントのプライベートデータを公開せずに、共有グローバルモデルの協調トレーニングを容易にする。
我々は、リソース制約のあるクライアントの計算とメモリ負荷を最小限に抑えるクライアントフレンドリーなFLフレームワークであるFedConvを提案する。
モデル精度,計算量,通信オーバヘッドの観点から,FedConvは最先端のFLシステムより優れていることを示す。
論文 参考訳(メタデータ) (2025-02-28T01:39:53Z) - Knowledge-Enhanced Semi-Supervised Federated Learning for Aggregating
Heterogeneous Lightweight Clients in IoT [34.128674870180596]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
pFedKnowは、ニューラルネットワークのプルーニング技術を用いて、軽量なパーソナライズされたクライアントモデルを生成し、通信コストを削減する。
画像とテキストのデータセットによる実験結果から、提案したpFedKnowは最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-05T13:19:10Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - ON-DEMAND-FL: A Dynamic and Efficient Multi-Criteria Federated Learning
Client Deployment Scheme [37.099990745974196]
フェデレート学習のためのクライアントデプロイメントアプローチであるOn-Demand-FLを導入する。
私たちはDockerのようなコンテナ技術を使って効率的な環境を構築しています。
遺伝的アルゴリズム(GA)は多目的最適化問題を解決するために用いられる。
論文 参考訳(メタデータ) (2022-11-05T13:41:19Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - FedGEMS: Federated Learning of Larger Server Models via Selective
Knowledge Fusion [19.86388925556209]
フェデレートラーニング(FL)は、データをプライベートに保ちながらグローバルモデルを学ぶための実行可能なソリューションとして登場した。
本研究では,FLのモデル容量を突破する強力なサーバモデルを活用するための新しいパラダイムについて検討する。
論文 参考訳(メタデータ) (2021-10-21T10:06:44Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - FedNS: Improving Federated Learning for collaborative image
classification on mobile clients [22.980223900446997]
Federated Learning(FL)は、グローバルモデルを学ぶために疎結合のクライアントをサポートすることを目的としたパラダイムです。
本稿では、fl設定におけるサーバのグローバルモデル集約のためのフェデレーションノード選択(fedns)と呼ばれる新しい手法を提案する。
我々は、FedNSがFedAvgよりも一貫してパフォーマンスを向上させることができる複数のデータセットとネットワークからの実験で示します。
論文 参考訳(メタデータ) (2021-01-20T06:45:46Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。