論文の概要: Distributed Networked Multi-task Learning
- arxiv url: http://arxiv.org/abs/2410.03403v1
- Date: Fri, 4 Oct 2024 13:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:39:00.308342
- Title: Distributed Networked Multi-task Learning
- Title(参考訳): 分散ネットワーク型マルチタスク学習
- Authors: Lingzhou Hong, Alfredo Garcia,
- Abstract要約: 複数の線形モデル推定タスクを考慮に入れた分散マルチタスク学習方式を提案する。
推定器の収束とタスク関係を有限時間で解析する。
- 参考スコア(独自算出の注目度): 3.10770247120758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a distributed multi-task learning scheme that accounts for multiple linear model estimation tasks with heterogeneous and/or correlated data streams. We assume that nodes can be partitioned into groups corresponding to different learning tasks and communicate according to a directed network topology. Each node estimates a linear model asynchronously and is subject to local (within-group) regularization and global (across groups) regularization terms targeting noise reduction and generalization performance improvement respectively. We provide a finite-time characterization of convergence of the estimators and task relation and illustrate the scheme's general applicability in two examples: random field temperature estimation and modeling student performance from different academic districts.
- Abstract(参考訳): 異種および/または相関したデータストリームを含む複数の線形モデル推定タスクを考慮に入れた分散マルチタスク学習方式を提案する。
ノードを異なる学習タスクに対応するグループに分割し、有向ネットワークトポロジに従って通信することができると仮定する。
各ノードは、線形モデルを非同期に推定し、それぞれ雑音低減と一般化性能の向上を目的とした局所(グループ内)正則化と大域(グループ間)正則化の条件を満たす。
本稿では,推定器の収束度とタスク関係を有限時間で評価し,ランダム場温度推定と,異なる学区の学生のパフォーマンスのモデル化という2つの例において,スキームの一般適用性を説明する。
関連論文リスト
- Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Distributed Continual Learning with CoCoA in High-dimensional Linear
Regression [0.0]
興味の信号が時間とともに特性の変化を示すシナリオで推定する。
特に、異なる分布を持つデータなど、異なるタスクが順次到着する連続的な学習問題を考察する。
ネットワーク上でモデルパラメータと対応する特徴を分散する分散学習アルゴリズムCOCOAについて検討する。
論文 参考訳(メタデータ) (2023-12-04T10:35:46Z) - Distributed Bayesian Learning of Dynamic States [65.7870637855531]
提案アルゴリズムは有限状態隠れマルコフモデルに対する分散ベイズフィルタタスクである。
逐次状態推定や、動的環境下でのソーシャルネットワーク上での意見形成のモデル化に使用できる。
論文 参考訳(メタデータ) (2022-12-05T19:40:17Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - pRSL: Interpretable Multi-label Stacking by Learning Probabilistic Rules [0.0]
本稿では,確率論的命題論理則と信念伝播を用いた確率論的ルールスタックリング(pRSL)を提案し,その基礎となる分類器の予測と組み合わせる。
精度と近似推論と学習のためのアルゴリズムを導出し、様々なベンチマークデータセット上でpRSLが最先端の性能に達することを示す。
論文 参考訳(メタデータ) (2021-05-28T14:06:21Z) - Cluster-Specific Predictions with Multi-Task Gaussian Processes [4.368185344922342]
マルチタスク学習、クラスタリング、予測を扱うために、ガウス過程(GP)を含むモデルを導入する。
このモデルは、マルチタスクGPと一般的な平均プロセスの混合としてインスタンス化される。
MagmaClustと呼ばれるアルゴリズムは、Rパッケージとして公開されている。
論文 参考訳(メタデータ) (2020-11-16T11:08:59Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。