論文の概要: Pseudo Labels for Single Positive Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2306.01034v1
- Date: Thu, 1 Jun 2023 17:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 18:31:55.390325
- Title: Pseudo Labels for Single Positive Multi-Label Learning
- Title(参考訳): 単一正のマルチラベル学習のための擬似ラベル
- Authors: Julio Arroyo
- Abstract要約: 単一正のマルチラベル学習(SPML)はコスト効率の良いソリューションであり、モデルがイメージ毎にひとつの正のラベルでトレーニングされる。
本研究では,1つの正のデータを完全なラベル付きデータに変換する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cost of data annotation is a substantial impediment for multi-label image
classification: in every image, every category must be labeled as present or
absent. Single positive multi-label (SPML) learning is a cost-effective
solution, where models are trained on a single positive label per image. Thus,
SPML is a more challenging domain, since it requires dealing with missing
labels. In this work, we propose a method to turn single positive data into
fully-labeled data: Pseudo Multi-Labels. Basically, a teacher network is
trained on single positive labels. Then, we treat the teacher model's
predictions on the training data as ground-truth labels to train a student
network on fully-labeled images. With this simple approach, we show that the
performance achieved by the student model approaches that of a model trained on
the actual fully-labeled images.
- Abstract(参考訳): データアノテーションのコストは、マルチラベル画像分類の実質的な障害であり、すべての画像において、すべてのカテゴリは、現在または欠落としてラベル付けされなければならない。
単一正のマルチラベル(spml)学習はコスト効率の良いソリューションであり、モデルが画像毎に単一の正のラベルでトレーニングされる。
したがって、SPMLは、欠落したラベルを扱う必要があるため、より困難なドメインである。
本研究では,1つの正のデータを完全なラベル付きデータに変換する手法を提案する。
教師ネットワークは基本的に、単一のポジティブラベルで訓練される。
そして,教師モデルのトレーニングデータに対する予測を地味ラベルとして扱い,学生ネットワークをフルラベル画像で訓練する。
この簡単なアプローチにより、学生モデルによって達成された性能が、実際の完全ラベル付き画像に基づいて訓練されたモデルの性能に近づくことを示す。
関連論文リスト
- Vision-Language Pseudo-Labels for Single-Positive Multi-Label Learning [11.489541220229798]
一般的なマルチラベル学習では、モデルは単一の入力画像に対して複数のラベルやカテゴリを予測することを学習する。
これは、タスクがイメージの多くの可能なラベルから単一のラベルを予測している、標準的なマルチクラスイメージ分類とは対照的である。
論文 参考訳(メタデータ) (2023-10-24T16:36:51Z) - Understanding Label Bias in Single Positive Multi-Label Learning [20.09309971112425]
画像ごとの正のラベルを1つだけ使い、効果的なマルチラベルを訓練することができる。
SPMLの標準ベンチマークは、従来のマルチラベル分類データセットに由来する。
本研究では,SPMLにおけるラベルバイアス研究のプロトコルを導入し,新たな実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-24T21:41:08Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - PLMCL: Partial-Label Momentum Curriculum Learning for Multi-Label Image
Classification [25.451065364433028]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージがラベルのサブセットでアノテートされている場合に焦点を当てている。
本稿では,トレーニング画像のサブセットのみをラベル付けした新たな部分ラベル設定を提案する。
論文 参考訳(メタデータ) (2022-08-22T01:23:08Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Acknowledging the Unknown for Multi-label Learning with Single Positive
Labels [65.5889334964149]
伝統的に、全ての無注釈ラベルは、単一正のマルチラベル学習(SPML)において負のラベルとして仮定される。
本研究では, 予測確率のエントロピーを最大化するエントロピー最大化(EM)損失を提案する。
非通知ラベルの正負ラベル不均衡を考慮し、非対称耐性戦略とより精密な監視を行うセルフペースト手順を備えた非対称擬似ラベル(APL)を提案する。
論文 参考訳(メタデータ) (2022-03-30T11:43:59Z) - Multi-Label Learning from Single Positive Labels [37.17676289125165]
与えられた画像に対して適用可能なラベルを全て予測することは、マルチラベル分類(multi-label classification)として知られている。
その結果,ラベルの確認が著しく少ないにもかかわらず,完全ラベル付き分類器の性能にアプローチできることが示唆された。
論文 参考訳(メタデータ) (2021-06-17T17:58:04Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels [34.13899937264952]
ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
論文 参考訳(メタデータ) (2021-01-13T11:55:58Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Unsupervised Person Re-identification via Multi-label Classification [55.65870468861157]
本稿では,教師なしのReIDを多ラベル分類タスクとして定式化し,段階的に真のラベルを求める。
提案手法は,まず,各人物画像に単一クラスラベルを割り当てることから始まり,ラベル予測のために更新されたReIDモデルを活用することで,多ラベル分類へと進化する。
マルチラベル分類におけるReIDモデルのトレーニング効率を高めるために,メモリベースマルチラベル分類損失(MMCL)を提案する。
論文 参考訳(メタデータ) (2020-04-20T12:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。