論文の概要: Semi-supervised Multi-task Learning for Semantics and Depth
- arxiv url: http://arxiv.org/abs/2110.07197v1
- Date: Thu, 14 Oct 2021 07:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:49:18.860127
- Title: Semi-supervised Multi-task Learning for Semantics and Depth
- Title(参考訳): 意味と深さのための半教師付きマルチタスク学習
- Authors: Yufeng Wang, Yi-Hsuan Tsai, Wei-Chih Hung, Wenrui Ding, Shuo Liu,
Ming-Hsuan Yang
- Abstract要約: MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
- 参考スコア(独自算出の注目度): 88.77716991603252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Task Learning (MTL) aims to enhance the model generalization by sharing
representations between related tasks for better performance. Typical MTL
methods are jointly trained with the complete multitude of ground-truths for
all tasks simultaneously. However, one single dataset may not contain the
annotations for each task of interest. To address this issue, we propose the
Semi-supervised Multi-Task Learning (SemiMTL) method to leverage the available
supervisory signals from different datasets, particularly for semantic
segmentation and depth estimation tasks. To this end, we design an adversarial
learning scheme in our semi-supervised training by leveraging unlabeled data to
optimize all the task branches simultaneously and accomplish all tasks across
datasets with partial annotations. We further present a domain-aware
discriminator structure with various alignment formulations to mitigate the
domain discrepancy issue among datasets. Finally, we demonstrate the
effectiveness of the proposed method to learn across different datasets on
challenging street view and remote sensing benchmarks.
- Abstract(参考訳): マルチタスク学習(MTL)は、関連するタスク間で表現を共有することでモデル一般化を向上することを目的としている。
典型的なMTL法は、全てのタスクに対して完全に複数の接地構造を同時に訓練する。
しかし、1つのデータセットはそれぞれのタスクに対するアノテーションを含まないかもしれない。
そこで本研究では,半教師付きマルチタスク学習(semimtl, semi-supervised multi-task learning)手法を提案する。
この目的のために,ラベルなしデータを活用してタスクブランチを最適化し,部分的アノテーションによるデータセット全体のタスクを達成することで,半教師付き学習における逆学習スキームを設計する。
さらに,様々なアライメント定式化を伴うドメイン認識型判別器構造を提案し,データセット間のドメイン不一致を緩和する。
最後に,街路ビューとリモートセンシングベンチマークにおいて,異なるデータセット間で学習する手法の有効性を示す。
関連論文リスト
- Leveraging knowledge distillation for partial multi-task learning from multiple remote sensing datasets [2.1178416840822023]
ターゲットタスクの1つにトレーニング例をアノテートする部分的マルチタスク学習は、リモートセンシングにおいて有望なアイデアである。
本稿では, 知識蒸留を用いて, 代替課題における基礎的真理の必要性を代替し, その性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-05-24T09:48:50Z) - Joint-Task Regularization for Partially Labeled Multi-Task Learning [30.823282043129552]
機械学習分野ではマルチタスク学習がますます人気になっているが、その実用性は大規模ラベル付きデータセットの必要性によって妨げられている。
本稿では, クロスタスク関係を利用して, 全タスクを1つのジョイントタスク潜在空間で同時に正規化する直感的手法であるジョイントタスク正規化(JTR)を提案する。
論文 参考訳(メタデータ) (2024-04-02T14:16:59Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - When Multi-Task Learning Meets Partial Supervision: A Computer Vision Review [7.776434991976473]
マルチタスク学習(MTL)は,相互関係を利用して複数のタスクを同時に学習することを目的としている。
このレビューは、これらの課題に対処するために、異なる部分的な監視設定の下でMTLをどのように活用するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-07-25T20:08:41Z) - Knowledge Assembly: Semi-Supervised Multi-Task Learning from Multiple
Datasets with Disjoint Labels [8.816979799419107]
マルチタスク学習(MTL)は適切な手法であるが、通常はすべてのタスクにラベル付けされたデータセットを必要とする。
MTLフレームワークのタスクのいくつかのみにラベル付けされたデータセットを活用できる手法を提案する。
我々の研究であるKnowledge Assembly(KA)は、ラベルのないデータを半教師付きで活用することで、不連続なデータセットから複数のタスクを学習する。
論文 参考訳(メタデータ) (2023-06-15T04:05:03Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。