論文の概要: Sign-regularized Multi-task Learning
- arxiv url: http://arxiv.org/abs/2102.11191v1
- Date: Mon, 22 Feb 2021 17:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 22:24:16.408422
- Title: Sign-regularized Multi-task Learning
- Title(参考訳): サインレギュラー化マルチタスク学習
- Authors: Johnny Torres, Guangji Bai, Junxiang Wang, Liang Zhao, Carmen Vaca,
Cristina Abad
- Abstract要約: マルチタスク学習は、パフォーマンスを向上させるために知識を共有するために異なる学習タスクを強制するフレームワークです。
特に、どのタスクが相関して類似しているのか、どのように関連するタスク間で知識を共有するかなどです。
- 参考スコア(独自算出の注目度): 13.685061061742523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning is a framework that enforces different learning tasks to
share their knowledge to improve their generalization performance. It is a hot
and active domain that strives to handle several core issues; particularly,
which tasks are correlated and similar, and how to share the knowledge among
correlated tasks. Existing works usually do not distinguish the polarity and
magnitude of feature weights and commonly rely on linear correlation, due to
three major technical challenges in: 1) optimizing the models that regularize
feature weight polarity, 2) deciding whether to regularize sign or magnitude,
3) identifying which tasks should share their sign and/or magnitude patterns.
To address them, this paper proposes a new multi-task learning framework that
can regularize feature weight signs across tasks. We innovatively formulate it
as a biconvex inequality constrained optimization with slacks and propose a new
efficient algorithm for the optimization with theoretical guarantees on
generalization performance and convergence. Extensive experiments on multiple
datasets demonstrate the proposed methods' effectiveness, efficiency, and
reasonableness of the regularized feature weighted patterns.
- Abstract(参考訳): マルチタスク学習は、さまざまな学習タスクを強制して知識を共有し、一般化のパフォーマンスを向上させるフレームワークです。
ホットでアクティブなドメインであり、いくつかのコア問題、特にどのタスクが相関して類似しているか、どのように関連するタスク間で知識を共有するか、を扱う。
既存の作業は、通常、特徴量の極性と大きさを区別せず、一般的に線形相関に依存している: 1) 特徴量の極性を正則化するモデルの最適化、2) 符号の正則化か等級を決定すること、3) どのタスクをその符号と/または等級パターンを共有するべきかを特定すること。
そこで本論文では,タスクの重み付けを正規化できるマルチタスク学習フレームワークを提案する。
スラックによる二凸不等式制約最適化として革新的に定式化し、一般化性能と収束性を理論的に保証した最適化のための新しい効率的なアルゴリズムを提案する。
複数のデータセットに関する広範囲な実験により、正規化特徴重み付けパターンの有効性、効率性、妥当性が示された。
関連論文リスト
- Sharing Knowledge in Multi-Task Deep Reinforcement Learning [57.38874587065694]
マルチタスク強化学習において、ディープニューラルネットワークを効果的に活用するためのタスク間の表現の共有の利点について検討する。
我々は,タスク間で表現を共有するのに便利な条件を強調する理論的保証を提供することで,これを証明している。
論文 参考訳(メタデータ) (2024-01-17T19:31:21Z) - Multi-Task Learning with Prior Information [5.770309971945476]
本稿では,機能間の関係に関する事前知識を利用するマルチタスク学習フレームワークを提案する。
また、各特徴に対して変化する係数に対してペナルティを課し、それらの共通する特徴に類似した係数を持つことを保証します。
論文 参考訳(メタデータ) (2023-01-04T12:48:05Z) - Multi-task Bias-Variance Trade-off Through Functional Constraints [102.64082402388192]
マルチタスク学習は、多様なタスクによく機能する関数の集合を取得することを目的としている。
本稿では,2つの極端な学習シナリオ,すなわちすべてのタスクに対する単一関数と,他のタスクを無視するタスク固有関数から直感を抽出する。
本稿では,集中関数に対するドメイン固有解を強制する制約付き学習定式化を導入する。
論文 参考訳(メタデータ) (2022-10-27T16:06:47Z) - Leveraging convergence behavior to balance conflicting tasks in
multi-task learning [3.6212652499950138]
マルチタスク学習は、パフォーマンスの一般化を改善するために相関タスクを使用する。
タスクは互いに衝突することが多いため、複数のタスクの勾配をどのように組み合わせるべきかを定義するのは難しい。
バックプロパゲーション中の各タスクの重要度を調整する動的バイアスを生成するために,勾配の時間的挙動を考慮した手法を提案する。
論文 参考訳(メタデータ) (2022-04-14T01:52:34Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Distributed Primal-Dual Optimization for Online Multi-Task Learning [22.45069527817333]
本稿では,対数学習におけるタスク固有のノイズを捕捉し,実行時効率でプロジェクションフリーな更新を行う適応的原始双対アルゴリズムを提案する。
我々のモデルは、エネルギー不足や帯域制限のあるタスクが更新を延期できるようにするため、分散型の周期接続タスクに適しています。
実験結果から,提案モデルが実世界の様々なデータセットに対して極めて有効であることが確認された。
論文 参考訳(メタデータ) (2020-04-02T23:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。