論文の概要: Model Linkage Selection for Cooperative Learning
- arxiv url: http://arxiv.org/abs/2005.07342v3
- Date: Mon, 20 Sep 2021 06:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:28:14.825488
- Title: Model Linkage Selection for Cooperative Learning
- Title(参考訳): 協調学習のためのモデルリンク選択
- Authors: Jiaying Zhou, Jie Ding, Kean Ming Tan, Vahid Tarokh
- Abstract要約: 各エージェント/学習者が特定のパラメトリックモデルとデータソースを保持する分散学習環境を考える。
情報を統合する自然な方法は、共通の関心のパラメータを共有する学習者のグループ間でジョイントモデルを構築することである。
本稿では,モデルとパラメータ共有パターンの両方の誤特定に対して頑健な学習者の集合にまたがる情報統合手法を提案する。
- 参考スコア(独自算出の注目度): 35.601825706901714
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a distributed learning setting where each agent/learner holds a
specific parametric model and data source. The goal is to integrate information
across a set of learners to enhance the prediction accuracy of a given learner.
A natural way to integrate information is to build a joint model across a group
of learners that shares common parameters of interest. However, the underlying
parameter sharing patterns across a set of learners may not be a priori known.
Misspecifying the parameter sharing patterns or the parametric model for each
learner often yields a biased estimation and degrades the prediction accuracy.
We propose a general method to integrate information across a set of learners
that is robust against misspecifications of both models and parameter sharing
patterns. The main crux is to sequentially incorporate additional learners that
can enhance the prediction accuracy of an existing joint model based on
user-specified parameter sharing patterns across a set of learners.
Theoretically, we show that the proposed method can data-adaptively select the
most suitable way of parameter sharing and thus enhance the predictive
performance of any particular learner of interest. Extensive numerical studies
show the promising performance of the proposed method.
- Abstract(参考訳): 各エージェント/学習者が特定のパラメトリックモデルとデータソースを保持する分散学習環境を考える。
目的は,学習者の予測精度を高めるため,学習者の集合に情報を統合することである。
情報を統合する自然な方法は、共通の関心のパラメータを共有する学習者グループにまたがって共同モデルを構築することである。
しかし、学習者の集合にまたがるパラメータ共有パターンは、事前知識ではないかもしれない。
各学習者に対するパラメータ共有パターンやパラメトリックモデルの不特定は、しばしば偏りのある推定となり、予測精度を低下させる。
本稿では,モデルとパラメータ共有パターンの両方の誤特定に対して頑健な学習者の集合にまたがる情報統合手法を提案する。
メインのcruxは、ユーザが指定したパラメータ共有パターンに基づいて、既存のジョイントモデルの予測精度を向上させる学習者を順次追加することである。
理論的には,提案手法はパラメータ共有の最も適した方法をデータ適応的に選択し,興味のある学習者の予測性能を向上させることができることを示す。
広範な数値実験により,提案手法の有望な性能を示す。
関連論文リスト
- Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Infinite forecast combinations based on Dirichlet process [9.326879672480413]
本稿では,ディリクレ過程に基づく深層学習アンサンブル予測モデルを提案する。
単一のベンチマークモデルに比べて予測精度と安定性が大幅に向上している。
論文 参考訳(メタデータ) (2023-11-21T06:41:41Z) - On the Properties and Estimation of Pointwise Mutual Information Profiles [49.877314063833296]
ポイントワイド相互情報プロファイル(ポイントワイド相互情報プロファイル、英: pointwise mutual information profile)は、与えられた確率変数のペアに対するポイントワイド相互情報の分布である。
そこで我々は,モンテカルロ法を用いて分布を正確に推定できる新しい分布系 Bend と Mix Models を導入する。
論文 参考訳(メタデータ) (2023-10-16T10:02:24Z) - Valid Inference for Machine Learning Model Parameters [0.0]
機械学習モデルの最適パラメータに対して有効な信頼セットを構築する。
この信頼度セットはブートストラップ技術を用いてよく近似できることを示す。
論文 参考訳(メタデータ) (2023-02-21T17:46:08Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Optimizing model-agnostic Random Subspace ensembles [5.680512932725364]
教師あり学習のためのモデルに依存しないアンサンブルアプローチを提案する。
提案手法は、ランダム部分空間アプローチのパラメトリックバージョンを用いてモデルのアンサンブルを学習することとを交互に行う。
シミュレーションおよび実世界のデータセット上で,予測と特徴ランキングの両面で,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-07T13:58:23Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning [8.666667951130892]
生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
論文 参考訳(メタデータ) (2020-11-12T15:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。