論文の概要: Multi-Task Learning Regression via Convex Clustering
- arxiv url: http://arxiv.org/abs/2304.13342v1
- Date: Wed, 26 Apr 2023 07:25:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 15:19:08.801728
- Title: Multi-Task Learning Regression via Convex Clustering
- Title(参考訳): 凸クラスタリングによるマルチタスク学習回帰
- Authors: Akira Okazaki, Shuichi Kawano
- Abstract要約: 本稿では,タスクのクラスタ中心を表すセントロイドパラメータを用いたMTL手法を提案する。
モンテカルロシミュレーションによる提案手法の有効性と実データへの適用について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning (MTL) is a methodology that aims to improve the general
performance of estimation and prediction by sharing common information among
related tasks. In the MTL, there are several assumptions for the relationships
and methods to incorporate them. One of the natural assumptions in the
practical situation is that tasks are classified into some clusters with their
characteristics. For this assumption, the group fused regularization approach
performs clustering of the tasks by shrinking the difference among tasks. This
enables us to transfer common information within the same cluster. However,
this approach also transfers the information between different clusters, which
worsens the estimation and prediction. To overcome this problem, we propose an
MTL method with a centroid parameter representing a cluster center of the task.
Because this model separates parameters into the parameters for regression and
the parameters for clustering, we can improve estimation and prediction
accuracy for regression coefficient vectors. We show the effectiveness of the
proposed method through Monte Carlo simulations and applications to real data.
- Abstract(参考訳): マルチタスク学習(MTL)は,タスク間の共通情報を共有することにより,予測と予測の一般的な性能を向上させる手法である。
MTLでは、それらを組み込む関係や方法にはいくつかの仮定がある。
現実的状況における自然な仮定の1つは、タスクがその特性を持ついくつかのクラスタに分類されるということである。
この仮定のために、群融合正規化手法はタスク間の差を小さくすることでタスクのクラスタリングを行う。
これにより、同じクラスタ内で共通の情報を転送することができます。
しかし、このアプローチは異なるクラスタ間で情報を転送するので、推定と予測が悪化する。
この問題を解決するために,タスクのクラスタ中心を表すセントロイドパラメータを用いたMTL手法を提案する。
このモデルではパラメータを回帰パラメータとクラスタリングパラメータに分離するため,回帰係数ベクトルの推定と予測精度を向上させることができる。
モンテカルロシミュレーションによる提案手法の有効性と実データへの適用について述べる。
関連論文リスト
- Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - Time series clustering based on prediction accuracy of global
forecasting models [0.0]
本稿では,時系列のモデルに基づくクラスタリング手法を提案する。
文献で提案されているほとんどの手法とは異なり、この手法はクラスタリング分割を構成する主要な要素として予測精度を考慮している。
シミュレーション実験により,クラスタリングの有効性と予測精度の両面で,本手法はいくつかの代替手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-30T13:12:19Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - Semisoft Task Clustering for Multi-Task Learning [2.806911268410107]
マルチタスク学習(MTL)は、複数の関連する予測タスクの性能を向上させることを目的としている。
そこで本研究では,タスククラスタリング構造を半ソフトなタスククラスタリング手法として提案する。
合成および実世界のデータセットに基づく実験結果は,提案手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-11-28T07:23:56Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Multi-objective Semi-supervised Clustering for Finding Predictive
Clusters [0.5371337604556311]
本研究は,クラスタリング問題に焦点をあて,結果変数に有意なコンパクトクラスタを見つけることを目的とする。
主な目標は、各クラスタでの観測が類似し、結果変数をこれらのクラスタを使用して同時に予測できるように、データポイントをパーティショニングすることである。
論文 参考訳(メタデータ) (2022-01-26T06:24:38Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Cluster-Specific Predictions with Multi-Task Gaussian Processes [4.368185344922342]
マルチタスク学習、クラスタリング、予測を扱うために、ガウス過程(GP)を含むモデルを導入する。
このモデルは、マルチタスクGPと一般的な平均プロセスの混合としてインスタンス化される。
MagmaClustと呼ばれるアルゴリズムは、Rパッケージとして公開されている。
論文 参考訳(メタデータ) (2020-11-16T11:08:59Z) - Kernel learning approaches for summarising and combining posterior
similarity matrices [68.8204255655161]
我々は,ベイズクラスタリングモデルに対するMCMCアルゴリズムの出力を要約するための新しいアプローチを提案するために,後部類似性行列(PSM)の概念を構築した。
我々の研究の重要な貢献は、PSMが正の半定値であり、したがって確率的に動機付けられたカーネル行列を定義するのに使用できることである。
論文 参考訳(メタデータ) (2020-09-27T14:16:14Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。