論文の概要: Beyond without Forgetting: Multi-Task Learning for Classification with
Disjoint Datasets
- arxiv url: http://arxiv.org/abs/2003.06746v1
- Date: Sun, 15 Mar 2020 03:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:29:00.217717
- Title: Beyond without Forgetting: Multi-Task Learning for Classification with
Disjoint Datasets
- Title(参考訳): beyond without forgetting:disjoint datasetsを用いた分類のためのマルチタスク学習
- Authors: Yan Hong, Li Niu, Jianfu Zhang, Liqing Zhang
- Abstract要約: 解離データセットを用いた分類のためのマルチタスク学習(MTL)は、ひとつのタスクにラベル付きデータセットが1つしかない場合、MTLを探索することを目的としている。
半教師付き学習にインスパイアされ、擬似ラベル付きラベル付きラベル付きデータセットを使用して各タスクを容易にする。
提案手法は,ラベル付きデータセットに信頼度の高い擬似ラベルを持つラベル付きデータセットのトレーニングサンプルを選択し,ラベル付きデータセットに密接なデータ配信を行うための,選択型拡張(MTL-SA)法である。
- 参考スコア(独自算出の注目度): 27.570773346794613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-task Learning (MTL) for classification with disjoint datasets aims to
explore MTL when one task only has one labeled dataset. In existing methods,
for each task, the unlabeled datasets are not fully exploited to facilitate
this task. Inspired by semi-supervised learning, we use unlabeled datasets with
pseudo labels to facilitate each task. However, there are two major issues: 1)
the pseudo labels are very noisy; 2) the unlabeled datasets and the labeled
dataset for each task has considerable data distribution mismatch. To address
these issues, we propose our MTL with Selective Augmentation (MTL-SA) method to
select the training samples in unlabeled datasets with confident pseudo labels
and close data distribution to the labeled dataset. Then, we use the selected
training samples to add information and use the remaining training samples to
preserve information. Extensive experiments on face-centric and human-centric
applications demonstrate the effectiveness of our MTL-SA method.
- Abstract(参考訳): 解離データセットを用いた分類のためのマルチタスク学習(MTL)は、1つのタスクにラベル付きデータセットが1つしかない場合にMTLを探索することを目的としている。
既存のメソッドでは、各タスクに対してラベルのないデータセットは、このタスクを容易にするために完全に悪用されない。
半教師付き学習にインスパイアされ、擬似ラベル付きラベル付きラベル付きデータセットを使用して各タスクを容易にする。
しかし、大きな問題は2つあります。
1) 擬似ラベルは非常にうるさい。
2)未ラベルデータセットと各タスクのラベル付きデータセットには,かなりのデータ分散ミスマッチがある。
これらの問題に対処するため,提案するMTL with Selective Augmentation (MTL-SA) 法は,ラベル付きデータセットに信頼度の高い擬似ラベルを付加したラベル付きデータセットのトレーニングサンプルを選択する。
次に、選択したトレーニングサンプルを使用して情報を追加し、残りのトレーニングサンプルを使用して情報を保存する。
MTL-SA法の有効性を示す顔中心および人中心の応用に関する大規模な実験を行った。
関連論文リスト
- FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - Self-refining of Pseudo Labels for Music Source Separation with Noisy
Labeled Data [15.275949700129797]
音楽音源分離(MSS)は、正確にラベル付けされた個々の楽器トラックの可用性が限られているため、課題に直面している。
本稿では,ラベルを部分的に間違ってラベル付けしたデータセットに書き換える自動手法を提案する。
提案手法は, 雑音ラベル付きデータセットを用いて, 多ラベルの楽器認識において, 1%の精度劣化しか得られない。
論文 参考訳(メタデータ) (2023-07-24T07:47:21Z) - Knowledge Assembly: Semi-Supervised Multi-Task Learning from Multiple
Datasets with Disjoint Labels [8.816979799419107]
マルチタスク学習(MTL)は適切な手法であるが、通常はすべてのタスクにラベル付けされたデータセットを必要とする。
MTLフレームワークのタスクのいくつかのみにラベル付けされたデータセットを活用できる手法を提案する。
我々の研究であるKnowledge Assembly(KA)は、ラベルのないデータを半教師付きで活用することで、不連続なデータセットから複数のタスクを学習する。
論文 参考訳(メタデータ) (2023-06-15T04:05:03Z) - AuxMix: Semi-Supervised Learning with Unconstrained Unlabeled Data [6.633920993895286]
我々は,現在最先端のSSLアルゴリズムが,ラベルなし補助データの存在下での性能低下に悩まされていることを示す。
ラベル付き集合にセマンティックに似ていない補助データを隠すために,自己教師付き学習タスクを活用して汎用的な特徴を学習するアルゴリズムであるAuxMixを提案する。
論文 参考訳(メタデータ) (2022-06-14T16:25:20Z) - Mining Multi-Label Samples from Single Positive Labels [32.10330097419565]
条件付き生成逆数ネットワーク(cGAN)は、クラス条件生成タスクにおいて優れた結果を示している。
複数の条件を同時に制御するために、cGANは複数のラベルのトレーニングデータセットを必要とし、各データインスタンスに複数のラベルを割り当てることができる。
マルコフ連鎖モンテカルロ法に基づくS2Mサンプリングという新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-12T15:14:29Z) - Learning Semantic Segmentation from Multiple Datasets with Label Shifts [101.24334184653355]
本論文では,ラベル空間が異なる複数のデータセットを対象としたモデルの自動学習手法であるUniSegを提案する。
具体的には,ラベルの相反と共起を考慮に入れた2つの損失を提案する。
論文 参考訳(メタデータ) (2022-02-28T18:55:19Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - Semi-supervised Multi-task Learning for Semantics and Depth [88.77716991603252]
MTL(Multi-Task Learning)は、関連するタスク間で表現を共有することで、モデル一般化を強化することを目的としている。
そこで本研究では,異なるデータセットから利用可能な監視信号を活用するために,半教師付きマルチタスク学習(MTL)手法を提案する。
本稿では,データセット間の整合性の問題を軽減するために,様々なアライメントの定式化を施したドメイン認識識別器構造を提案する。
論文 参考訳(メタデータ) (2021-10-14T07:43:39Z) - Unsupervised Selective Labeling for More Effective Semi-Supervised
Learning [46.414510522978425]
教師なしの選択的なラベル付けは、与えられたラベル付きデータの最先端のアクティブラーニングよりもSSLメソッドを一貫して改善する。
私たちの仕事は、実用的で効率的なSSLの新しい標準を設定します。
論文 参考訳(メタデータ) (2021-10-06T18:25:50Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - Adaptive Self-training for Few-shot Neural Sequence Labeling [55.43109437200101]
ニューラルシークエンスラベリングモデルにおけるラベル不足問題に対処する手法を開発した。
自己学習は、大量のラベルのないデータから学ぶための効果的なメカニズムとして機能する。
メタラーニングは、適応的なサンプル再重み付けにおいて、ノイズのある擬似ラベルからのエラー伝播を軽減するのに役立つ。
論文 参考訳(メタデータ) (2020-10-07T22:29:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。