論文の概要: Optimal Model Averaging: Towards Personalized Collaborative Learning
- arxiv url: http://arxiv.org/abs/2110.12946v1
- Date: Mon, 25 Oct 2021 13:33:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 21:08:10.049750
- Title: Optimal Model Averaging: Towards Personalized Collaborative Learning
- Title(参考訳): 最適モデル平均化:パーソナライズされた協調学習に向けて
- Authors: Felix Grimberg (1), Mary-Anne Hartley (1), Sai P. Karimireddy (1),
Martin Jaggi (1) ((1) EPFL)
- Abstract要約: 連合学習では、参加ノード間のデータや目的の違いが、各ノードに対してパーソナライズされた機械学習モデルをトレーニングするためのアプローチを動機付けている。
そのようなアプローチの1つは、局所的に訓練されたモデルとグローバルモデルの間の重み付き平均化である。
局所モデルと比較して予測される2乗誤差を減少させるモデル平均化の正の量が常に存在することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In federated learning, differences in the data or objectives between the
participating nodes motivate approaches to train a personalized machine
learning model for each node. One such approach is weighted averaging between a
locally trained model and the global model. In this theoretical work, we study
weighted model averaging for arbitrary scalar mean estimation problems under
minimal assumptions on the distributions. In a variant of the bias-variance
trade-off, we find that there is always some positive amount of model averaging
that reduces the expected squared error compared to the local model, provided
only that the local model has a non-zero variance. Further, we quantify the
(possibly negative) benefit of weighted model averaging as a function of the
weight used and the optimal weight. Taken together, this work formalizes an
approach to quantify the value of personalization in collaborative learning and
provides a framework for future research to test the findings in multivariate
parameter estimation and under a range of assumptions.
- Abstract(参考訳): 連合学習では、参加ノード間のデータや目的の違いが、各ノードに対してパーソナライズされた機械学習モデルをトレーニングするためのアプローチを動機付ける。
そのようなアプローチの1つは、局所的に訓練されたモデルとグローバルモデルの間の重み付き平均化である。
本研究では,任意のスカラー平均推定問題の重み付きモデル平均化について,分布の最小仮定の下で検討する。
バイアス分散トレードオフの変種では、局所モデルが非ゼロ分散を持つ場合に限り、局所モデルに比べて期待される2乗誤差を減少させるモデル平均化の正の量が常に存在することが分かる。
さらに,重みモデル平均化の(おそらく負の)利点を,使用する重みと最適重みの関数として定量化する。
本研究は,協調学習におけるパーソナライゼーションの価値を定量化するためのアプローチを定式化し,多変量パラメータ推定および様々な仮定の下での結果をテストするための将来の研究の枠組みを提供する。
関連論文リスト
- WASH: Train your Ensemble with Communication-Efficient Weight Shuffling, then Average [21.029085451757368]
ウェイト平均化手法は、アンサンブルの一般化と単一モデルの推論速度のバランスをとることを目的としている。
WASHは,最新の画像分類精度を実現するために,平均化のためのモデルアンサンブルを学習するための新しい分散手法である。
論文 参考訳(メタデータ) (2024-05-27T09:02:57Z) - Vanishing Variance Problem in Fully Decentralized Neural-Network Systems [0.8212195887472242]
フェデレートラーニングとゴシップラーニングは、データプライバシの懸念を軽減するために考案された方法論だ。
本研究では,分散補正モデル平均化アルゴリズムを提案する。
シミュレーションの結果,Gossip学習は,フェデレート学習に匹敵する収束効率を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-04-06T12:49:20Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - Improving Heterogeneous Model Reuse by Density Estimation [105.97036205113258]
本稿では,異なる参加者の個人データを用いてモデルを学習することを目的とした多人数学習について検討する。
モデルの再利用は、各パーティーのためにローカルモデルがトレーニングされていると仮定して、マルチパーティの学習にとって有望なソリューションである。
論文 参考訳(メタデータ) (2023-05-23T09:46:54Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。