論文の概要: Multi-Task Learning with Prior Information
- arxiv url: http://arxiv.org/abs/2301.01572v1
- Date: Wed, 4 Jan 2023 12:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 15:13:56.777170
- Title: Multi-Task Learning with Prior Information
- Title(参考訳): 事前情報を用いたマルチタスク学習
- Authors: Mengyuan Zhang and Kai Liu
- Abstract要約: 本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
- 参考スコア(独自算出の注目度): 5.770309971945476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task learning aims to boost the generalization performance of multiple
related tasks simultaneously by leveraging information contained in those
tasks. In this paper, we propose a multi-task learning framework, where we
utilize prior knowledge about the relations between features. We also impose a
penalty on the coefficients changing for each specific feature to ensure
related tasks have similar coefficients on common features shared among them.
In addition, we capture a common set of features via group sparsity. The
objective is formulated as a non-smooth convex optimization problem, which can
be solved with various methods, including gradient descent method with fixed
stepsize, iterative shrinkage-thresholding algorithm (ISTA) with back-tracking,
and its variation -- fast iterative shrinkage-thresholding algorithm (FISTA).
In light of the sub-linear convergence rate of the methods aforementioned, we
propose an asymptotically linear convergent algorithm with theoretical
guarantee. Empirical experiments on both regression and classification tasks
with real-world datasets demonstrate that our proposed algorithms are capable
of improving the generalization performance of multiple related tasks.
- Abstract(参考訳): マルチタスク学習は、それらのタスクに含まれる情報を活用して、複数の関連するタスクの一般化性能を向上させることを目的としている。
本稿では,特徴間の関係に関する事前知識を活用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通特徴に類似した係数を持つようにした。
さらに、グループスパーシティを通じて、共通の機能セットをキャプチャします。
この目的は非スムース凸最適化問題として定式化されており、固定ステップ化による勾配降下法、バックトラッキングを伴う反復収縮緩和アルゴリズム(ista)、および変動 -- 高速反復収縮緩和アルゴリズム(fista)など様々な方法で解くことができる。
上記の手法の分線形収束率に照らして,理論的に保証された漸近線形収束アルゴリズムを提案する。
実世界のデータセットを用いた回帰および分類タスクの実証実験により,提案アルゴリズムは複数の関連するタスクの一般化性能を向上させることができることを示した。
関連論文リスト
- Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Low-Rank Multitask Learning based on Tensorized SVMs and LSSVMs [65.42104819071444]
マルチタスク学習(MTL)はタスク関連性を活用して性能を向上させる。
タスクインデックスに対応する各モードを持つ高次テンソルを用いて、複数のインデックスが参照するタスクを自然に表現する。
テンソル化サポートベクターマシン(SVM)と最小2乗サポートベクターマシン(LSSVM)を併用した低ランクMTL手法の汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T14:28:26Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Consistent Multiclass Algorithms for Complex Metrics and Constraints [38.6998359999636]
この設定には、マルチクラスG平均やマイクロF1測定など、多くの一般的なパフォーマンス指標が含まれている。
このような複雑な設計目標のための一貫したアルゴリズムのための一般的なフレームワークを提供する。
様々なクラス分類タスクと公正制約のある問題の実験により、我々のアルゴリズムは最先端のベースラインと良好に比較できることを示した。
論文 参考訳(メタデータ) (2022-10-18T09:09:29Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Learning-to-learn non-convex piecewise-Lipschitz functions [44.6133187924678]
両機械学習アルゴリズムに適用可能な非タスクであるピースワイズ・リプシッツ関数に対するアルゴリズムのメタラーニングを分析する。
複数のオンライン学習タスクからアルゴリズムのステップサイズの両方を学習する実用的なメタ学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-19T16:22:48Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。