論文の概要: Communication Size Reduction of Federated Learning based on Neural ODE
Model
- arxiv url: http://arxiv.org/abs/2208.09478v1
- Date: Fri, 19 Aug 2022 17:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:42:16.066991
- Title: Communication Size Reduction of Federated Learning based on Neural ODE
Model
- Title(参考訳): ニューラルodeモデルに基づく連合学習のコミュニケーションサイズ削減
- Authors: Yuto Hoshino, Hiroki Kawakami, Hiroki Matsutani
- Abstract要約: フェデレーション学習(Federated Learning)とは、データをサーバに集約するのではなく、エッジに分散する機械学習手法である。
本稿では,ResNetの軽量モデルとしてNeural ODEを用いて,連合学習における通信量を削減する。
- 参考スコア(独自算出の注目度): 2.13380223010717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a machine learning method in which data is not
aggregated on a server, but is distributed to the edges, in consideration of
security and privacy. ResNet is a classic but representative neural network
that succeeds in deepening the neural network by learning a residual function
that adds the inputs and outputs together. In federated learning, communication
is performed between the server and edge devices to exchange weight parameters,
but ResNet has deep layers and a large number of parameters, so communication
size becomes large. In this paper, we use Neural ODE as a lightweight model of
ResNet to reduce communication size in federated learning. In addition, we
newly introduce a flexible federated learning using Neural ODE models with
different number of iterations, which correspond to ResNet with different
depths. The CIFAR-10 dataset is used in the evaluation, and the use of Neural
ODE reduces communication size by approximately 90% compared to ResNet. We also
show that the proposed flexible federated learning can merge models with
different iteration counts.
- Abstract(参考訳): フェデレーション学習(federated learning)は、セキュリティとプライバシを考慮してデータをサーバに集約するのではなく、エッジに分散する、マシンラーニング手法である。
ResNetは古典的だが代表的なニューラルネットワークで、入力と出力を同時に追加する残関数を学習することで、ニューラルネットワークの深化に成功している。
連合学習では、重みパラメータを交換するためにサーバとエッジデバイス間の通信が行われるが、resnetには深い層と多くのパラメータがあり、通信サイズが大きくなる。
本稿では,ResNetの軽量モデルとしてNeural ODEを用いて,連合学習における通信量を削減する。
さらに,繰り返し回数の異なるニューラルODEモデルを用いたフレキシブルなフェデレーション学習を導入し,深さの異なるResNetに対応する。
CIFAR-10データセットは評価に使用され、Neural ODEの使用はResNetと比較して通信サイズを約90%削減する。
また,提案するフレキシブルフェデレーション学習は,異なるイテレーション数を持つモデルをマージできることを示す。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Parameterization of Deep Learning Models for Federated Learning [85.82002651944254]
Federated Learningは、分散形式でディープニューラルネットワークをトレーニングする方法を提供する。
トレーニング中にモデルパラメータや勾配を定期的に交換する必要があるため、通信オーバーヘッドが発生する。
本稿では,フェデレートラーニングのための並列適応器を提案する。
論文 参考訳(メタデータ) (2023-02-06T17:30:33Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Federated Few-Shot Learning with Adversarial Learning [30.905239262227]
少数のラベル付きサンプルだけで、見えないデータクラスを分類できる、数ショットの分類モデルを学ぶための、数ショット学習フレームワークを提案する。
学習視覚タスクは10%以上,言語タスクは5%以上,私たちのアプローチはベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-04-01T09:44:57Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。