論文の概要: New Tight Relaxations of Rank Minimization for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2112.04734v1
- Date: Thu, 9 Dec 2021 07:29:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 21:26:50.441372
- Title: New Tight Relaxations of Rank Minimization for Multi-Task Learning
- Title(参考訳): マルチタスク学習のためのランク最小化の新しいタイト緩和
- Authors: Wei Chang, Feiping Nie, Rong Wang, Xuelong Li
- Abstract要約: 2つの正規化項に基づく2つの新しいマルチタスク学習定式化を提案する。
本手法は,タスク間で共有される低ランク構造を正確に復元し,関連するマルチタスク学習方法より優れていることを示す。
- 参考スコア(独自算出の注目度): 161.23314844751556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning has been observed by many researchers, which supposes
that different tasks can share a low-rank common yet latent subspace. It means
learning multiple tasks jointly is better than learning them independently. In
this paper, we propose two novel multi-task learning formulations based on two
regularization terms, which can learn the optimal shared latent subspace by
minimizing the exactly $k$ minimal singular values. The proposed regularization
terms are the more tight approximations of rank minimization than trace norm.
But it's an NP-hard problem to solve the exact rank minimization problem.
Therefore, we design a novel re-weighted based iterative strategy to solve our
models, which can tactically handle the exact rank minimization problem by
setting a large penalizing parameter. Experimental results on benchmark
datasets demonstrate that our methods can correctly recover the low-rank
structure shared across tasks, and outperform related multi-task learning
methods.
- Abstract(参考訳): マルチタスク学習は多くの研究者によって観察されており、様々なタスクが低ランクの共通部分空間を共有することができると仮定している。
複数のタスクを共同で学ぶことは、独立して学ぶことよりもよい、ということです。
本稿では,2つの正規化項に基づく2つの新しいマルチタスク学習定式化を提案する。
提案された正規化項は、トレースノルムよりもランク最小化のより厳密な近似である。
しかし、厳密なランク最小化問題を解決するのはNPハードの問題です。
そこで本研究では,大規模なペナライズパラメータを設定することで,厳密なランク最小化問題に戦術的に対処可能な,新たな再重み付け型反復戦略を設計する。
ベンチマークデータセットにおける実験結果は、タスク間で共有される低ランク構造を正しく復元し、関連するマルチタスク学習手法を上回ることができることを示した。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Task Difficulty Aware Parameter Allocation & Regularization for Lifelong
Learning [20.177260510548535]
本稿では,その学習困難度に基づいてパラメータ割り当てと正規化から各タスクに適した戦略を適応的に選択するAllocation & Regularization (PAR)を提案する。
提案手法はスケーラビリティが高く,モデルの冗長性を著しく低減し,モデルの性能を向上する。
論文 参考訳(メタデータ) (2023-04-11T15:38:21Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Conflict-Averse Gradient Descent for Multi-task Learning [56.379937772617]
マルチタスクモデルを最適化する際の大きな課題は、矛盾する勾配である。
本稿では、平均損失関数を最小化する衝突-逆勾配降下(CAGrad)を導入する。
CAGradは目標を自動的にバランスし、平均損失よりも最小限に確実に収束する。
論文 参考訳(メタデータ) (2021-10-26T22:03:51Z) - Rethinking Hard-Parameter Sharing in Multi-Task Learning [20.792654758645302]
マルチタスク学習(MTL)におけるハードパラメータ共有により、タスクはモデルのパラメータの一部を共有でき、ストレージコストを低減し、予測精度を向上させることができる。
共通の共有プラクティスは、タスク毎に別々のトップレイヤを使用しながら、タスク間でディープニューラルネットワークのボトムレイヤを共有することだ。
異なるボトム層パラメータを使用することで、一般的なプラクティスよりも大幅にパフォーマンスが向上する可能性がある。
論文 参考訳(メタデータ) (2021-07-23T17:26:40Z) - Sample Efficient Linear Meta-Learning by Alternating Minimization [74.40553081646995]
低次元部分空間と回帰器を交互に学習する簡易交互最小化法(MLLAM)について検討する。
定数部分空間次元に対して、MLLAMはタスクあたり$Omega(log d)$サンプルしか必要とせず、ほぼ最適推定誤差が得られることを示す。
MLLAMと同様の強力な統計的保証を保証する新しいタスクサブセット選択スキームを提案する。
論文 参考訳(メタデータ) (2021-05-18T06:46:48Z) - The Sample Complexity of Meta Sparse Regression [38.092179552223364]
本稿では,無限タスクによる疎線形回帰におけるメタラーニング問題に対処する。
T in O ((k log(p) ) /l ) タスクが全タスクの共通サポートを回復するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-22T00:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。