論文の概要: Cross-Task Consistency Learning Framework for Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2111.14122v1
- Date: Sun, 28 Nov 2021 11:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 10:12:02.804615
- Title: Cross-Task Consistency Learning Framework for Multi-Task Learning
- Title(参考訳): マルチタスク学習のためのクロスタスク一貫性学習フレームワーク
- Authors: Akihiro Nakano, Shi Chen, and Kazuyuki Demachi
- Abstract要約: 2タスクMTL問題に対する新しい学習フレームワークを提案する。
サイクル一貫性損失とコントラスト学習に着想を得た2つの新たな損失項を定義する。
理論的には、どちらの損失もモデルをより効率的に学習する助けとなり、直進予測と整合する点において、クロスタスクの整合性損失がより良いことを証明している。
- 参考スコア(独自算出の注目度): 9.991706230252708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning (MTL) is an active field in deep learning in which we
train a model to jointly learn multiple tasks by exploiting relationships
between the tasks. It has been shown that MTL helps the model share the learned
features between tasks and enhance predictions compared to when learning each
task independently. We propose a new learning framework for 2-task MTL problem
that uses the predictions of one task as inputs to another network to predict
the other task. We define two new loss terms inspired by cycle-consistency loss
and contrastive learning, alignment loss and cross-task consistency loss. Both
losses are designed to enforce the model to align the predictions of multiple
tasks so that the model predicts consistently. We theoretically prove that both
losses help the model learn more efficiently and that cross-task consistency
loss is better in terms of alignment with the straight-forward predictions.
Experimental results also show that our proposed model achieves significant
performance on the benchmark Cityscapes and NYU dataset.
- Abstract(参考訳): マルチタスク学習(MTL)は,タスク間の関係を利用して複数のタスクを共同学習するモデルを訓練する深層学習の活発な分野である。
MTLは、各タスクを個別に学習する場合と比較して、学習した特徴をタスク間で共有し、予測を強化するのに役立つことが示されている。
本稿では,あるタスクの予測を他のネットワークへの入力として利用し,他のタスクを予測する2タスクmtl問題に対する新しい学習フレームワークを提案する。
サイクル一貫性損失とコントラスト学習,アライメント損失,クロスタスク整合損失の2つの新たな損失項を定義した。
どちらの損失もモデルを強制して複数のタスクの予測を整列させ、モデルを一貫して予測するように設計されている。
理論的には、どちらの損失もモデルをより効率的に学習する上で有効であり、直進予測との整合性損失の方が優れていることを証明している。
実験の結果,提案モデルがベンチマーク都市景観とnyuデータセットで有意な性能を得られた。
関連論文リスト
- Modeling Output-Level Task Relatedness in Multi-Task Learning with Feedback Mechanism [7.479892725446205]
マルチタスク学習(MTL)は、異なるレベルで情報を共有することで複数のタスクを同時に学習するパラダイムである。
異なるタスクが相互に影響のある相関出力を生成する可能性があることを考慮し、後続情報をモデルに導入する。
我々は,MTLモデルにフィードバック機構を組み込むことで,あるタスクの出力が他のタスクの隠れ機能として機能する。
論文 参考訳(メタデータ) (2024-04-01T03:27:34Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - "It's a Match!" -- A Benchmark of Task Affinity Scores for Joint
Learning [74.14961250042629]
MTL(Multi-Task Learning)は、その成功の条件を特徴づけることが、ディープラーニングにおいて依然としてオープンな問題である、と約束する。
共同学習におけるタスク親和性の推定は重要な取り組みである。
最近の研究は、訓練条件自体がMTLの結果に重大な影響を与えることを示唆している。
しかし,本研究では,タスク親和性評価手法の有効性を評価するためのベンチマークが欠落している。
論文 参考訳(メタデータ) (2023-01-07T15:16:35Z) - Composite Learning for Robust and Effective Dense Predictions [81.2055761433725]
マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T17:59:16Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Task Uncertainty Loss Reduce Negative Transfer in Asymmetric Multi-task
Feature Learning [0.0]
マルチタスク学習(MTL)は、シングルタスク学習(STL)と比較して全体的なタスクパフォーマンスを向上させることができるが、負の転送(NT)を隠すことができる。
非対称マルチタスク特徴学習(AMTFL)は、損失値の高いタスクが他のタスクを学習するための特徴表現に与える影響を小さくすることで、この問題に対処しようとするアプローチである。
2つのデータセット (画像認識と薬理ゲノミクス) におけるntの例を示し, 課題間の相対的信頼度を捉え, タスク損失の重み付けを行うことにより, この課題に挑戦する。
論文 参考訳(メタデータ) (2020-12-17T13:30:45Z) - HydaLearn: Highly Dynamic Task Weighting for Multi-task Learning with
Auxiliary Tasks [4.095907708855597]
マルチタスク学習(MTL)は、1つ以上の関連する補助タスクと表現を共有することでタスクのパフォーマンスを向上させることができる。
通常、MTL-networksは、個別のタスク損失の一定の重み付けによる複合損失関数に基づいて訓練される。
実際には, 一定損失重みは, (i) ミニバッチに基づく最適化において, 最適タスク重みは, ミニバッチのサンプル組成に応じて, 更新から次へと大きく変化する。
メインタスクのゲインを個別のタスク勾配に結びつけるインテリジェントな重み付けアルゴリズムであるHydaLearnを導入して,その情報を伝達する。
論文 参考訳(メタデータ) (2020-08-26T16:04:02Z) - Learning Functions to Study the Benefit of Multitask Learning [25.325601027501836]
我々は,シーケンスラベリングタスクのためのマルチタスク学習(MTL)モデルの一般化パターンを研究・定量化する。
マルチタスク学習はいくつかの問題において改善されたパフォーマンスを実現しているが、同時にトレーニングするとパフォーマンスが低下するタスクもある。
論文 参考訳(メタデータ) (2020-06-09T23:51:32Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。