論文の概要: Learning Multiple Dense Prediction Tasks from Partially Annotated Data
- arxiv url: http://arxiv.org/abs/2111.14893v1
- Date: Mon, 29 Nov 2021 19:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:13:50.237208
- Title: Learning Multiple Dense Prediction Tasks from Partially Annotated Data
- Title(参考訳): 部分的注釈付きデータから多次元予測課題の学習
- Authors: Wei-Hong Li, Xialei Liu, Hakan Bilen
- Abstract要約: マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
- 参考スコア(独自算出の注目度): 41.821234589075445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent advances in multi-task learning of dense prediction
problems, most methods rely on expensive labelled datasets. In this paper, we
present a label efficient approach and look at jointly learning of multiple
dense prediction tasks on partially annotated data, which we call multi-task
partially-supervised learning. We propose a multi-task training procedure that
successfully leverages task relations to supervise its multi-task learning when
data is partially annotated. In particular, we learn to map each task pair to a
joint pairwise task-space which enables sharing information between them in a
computationally efficient way through another network conditioned on task
pairs, and avoids learning trivial cross-task relations by retaining high-level
information about the input image. We rigorously demonstrate that our proposed
method effectively exploits the images with unlabelled tasks and outperforms
existing semi-supervised learning approaches and related methods on three
standard benchmarks.
- Abstract(参考訳): 密集した予測問題のマルチタスク学習の最近の進歩にもかかわらず、ほとんどの方法は高価なラベル付きデータセットに依存している。
本稿では,マルチタスクを部分的に教師付き学習と呼ぶ部分的注釈付きデータに対して,複数の密分布予測タスクを協調的に学習する手法を提案する。
タスク関係をうまく活用し,データが部分的にアノテートされた場合のマルチタスク学習を監督するマルチタスクトレーニング手順を提案する。
特に、各タスクペアを、タスクペアを条件とした別のネットワークを介して計算効率の良い方法で情報を共有できるジョイントペアワイズタスク空間にマップすることを学び、入力画像に関するハイレベル情報を保持して、自明なクロスタスク関係を学習することを避ける。
提案手法は,既存の半教師付き学習手法や関連する手法を3つの標準ベンチマークで比較し,その性能を向上する。
関連論文リスト
- Leveraging knowledge distillation for partial multi-task learning from multiple remote sensing datasets [2.1178416840822023]
ターゲットタスクの1つにトレーニング例をアノテートする部分的マルチタスク学習は、リモートセンシングにおいて有望なアイデアである。
本稿では, 知識蒸留を用いて, 代替課題における基礎的真理の必要性を代替し, その性能を向上させることを提案する。
論文 参考訳(メタデータ) (2024-05-24T09:48:50Z) - Joint-Task Regularization for Partially Labeled Multi-Task Learning [30.823282043129552]
機械学習分野ではマルチタスク学習がますます人気になっているが、その実用性は大規模ラベル付きデータセットの必要性によって妨げられている。
本稿では, クロスタスク関係を利用して, 全タスクを1つのジョイントタスク潜在空間で同時に正規化する直感的手法であるジョイントタスク正規化(JTR)を提案する。
論文 参考訳(メタデータ) (2024-04-02T14:16:59Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Data exploitation: multi-task learning of object detection and semantic
segmentation on partially annotated data [4.9914667450658925]
本稿では,物体検出とセマンティックセグメンテーションの併用学習について検討する。
本稿では,共同タスク最適化の活用を目的とした知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T14:49:54Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Label-Efficient Multi-Task Segmentation using Contrastive Learning [0.966840768820136]
比較学習に基づくサブタスクを用いたマルチタスクセグメンテーションモデルを提案し、その性能を他のマルチタスクモデルと比較する。
提案手法は,アノテートデータの量に制限がある場合に,最先端の完全教師付きモデルを含む他のマルチタスク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T14:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。