論文の概要: Federated Learning of Neural ODE Models with Different Iteration Counts
- arxiv url: http://arxiv.org/abs/2208.09478v4
- Date: Tue, 5 Sep 2023 19:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 20:19:53.766732
- Title: Federated Learning of Neural ODE Models with Different Iteration Counts
- Title(参考訳): 反復数が異なるニューラル・オードモデルのフェデレーション学習
- Authors: Yuto Hoshino, Hiroki Kawakami, Hiroki Matsutani
- Abstract要約: フェデレーテッド・ラーニング(Federated Learning)とは、クライアントが自身のデータをローカルにトレーニングしてサーバにアップロードする分散機械学習アプローチである。
本稿では,ニューラルネットワークをベースとしたモデルを用いてフェデレート学習を行う。
我々は,CIFAR-10データセットを用いたベースラインResNetモデルと比較して,通信サイズを最大92.4%削減できることを示す。
- 参考スコア(独自算出の注目度): 0.9444784653236158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a distributed machine learning approach in which
clients train models locally with their own data and upload them to a server so
that their trained results are shared between them without uploading raw data
to the server. There are some challenges in federated learning, such as
communication size reduction and client heterogeneity. The former can mitigate
the communication overheads, and the latter can allow the clients to choose
proper models depending on their available compute resources. To address these
challenges, in this paper, we utilize Neural ODE based models for federated
learning. The proposed flexible federated learning approach can reduce the
communication size while aggregating models with different iteration counts or
depths. Our contribution is that we experimentally demonstrate that the
proposed federated learning can aggregate models with different iteration
counts or depths. It is compared with a different federated learning approach
in terms of the accuracy. Furthermore, we show that our approach can reduce
communication size by up to 92.4% compared with a baseline ResNet model using
CIFAR-10 dataset.
- Abstract(参考訳): フェデレーション学習(federated learning)は、クライアントが自身のデータをローカルにトレーニングし、それをサーバにアップロードする分散機械学習アプローチである。
フェデレート学習には,コミュニケーションサイズ削減やクライアントの不均一性など,いくつかの課題がある。
前者は通信のオーバーヘッドを軽減でき、後者はクライアントが利用可能な計算リソースに応じて適切なモデルを選択することができる。
本稿では、これらの課題に対処するために、ニューラルネットワークODEに基づくモデルを用いてフェデレート学習を行う。
提案するフレキシブルな連合学習アプローチは,イテレーション数や深さの異なるモデルを集約しながら,コミュニケーションサイズを削減できる。
私たちの貢献は、提案したフェデレーション学習が、反復数や深さの異なるモデルを集約できることを実験的に実証することです。
精度の面では、異なる連合学習アプローチと比較される。
さらに,CIFAR-10データセットを用いたベースラインResNetモデルと比較して,通信サイズを最大92.4%削減できることを示す。
関連論文リスト
- FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Adaptive Parameterization of Deep Learning Models for Federated Learning [85.82002651944254]
Federated Learningは、分散形式でディープニューラルネットワークをトレーニングする方法を提供する。
トレーニング中にモデルパラメータや勾配を定期的に交換する必要があるため、通信オーバーヘッドが発生する。
本稿では,フェデレートラーニングのための並列適応器を提案する。
論文 参考訳(メタデータ) (2023-02-06T17:30:33Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Federated Few-Shot Learning with Adversarial Learning [30.905239262227]
少数のラベル付きサンプルだけで、見えないデータクラスを分類できる、数ショットの分類モデルを学ぶための、数ショット学習フレームワークを提案する。
学習視覚タスクは10%以上,言語タスクは5%以上,私たちのアプローチはベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-04-01T09:44:57Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。