論文の概要: MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset
- arxiv url: http://arxiv.org/abs/2303.12756v1
- Date: Wed, 22 Mar 2023 17:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:31:20.464731
- Title: MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset
- Title(参考訳): maskcon: 粗いラベル付きデータセットのためのマスキングコントラスト学習
- Authors: Chen Feng, Ioannis Patras
- Abstract要約: 我々は、@textbfMask$ed $textbfCon$trastive Learning($textbfMaskCon$)と呼ばれる対照的な学習方法を提案する。
各サンプルに対して,本手法は,他のサンプルに対して粗いラベルを付与して軟質ラベルを生成する。
提案手法は, 各種データセットにおける現状よりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 19.45520684918576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved great success in recent years with the aid of
advanced neural network structures and large-scale human-annotated datasets.
However, it is often costly and difficult to accurately and efficiently
annotate large-scale datasets, especially for some specialized domains where
fine-grained labels are required. In this setting, coarse labels are much
easier to acquire as they do not require expert knowledge. In this work, we
propose a contrastive learning method, called $\textbf{Mask}$ed
$\textbf{Con}$trastive learning~($\textbf{MaskCon}$) to address the
under-explored problem setting, where we learn with a coarse-labelled dataset
in order to address a finer labelling problem. More specifically, within the
contrastive learning framework, for each sample our method generates
soft-labels with the aid of coarse labels against other samples and another
augmented view of the sample in question. By contrast to self-supervised
contrastive learning where only the sample's augmentations are considered hard
positives, and in supervised contrastive learning where only samples with the
same coarse labels are considered hard positives, we propose soft labels based
on sample distances, that are masked by the coarse labels. This allows us to
utilize both inter-sample relations and coarse labels. We demonstrate that our
method can obtain as special cases many existing state-of-the-art works and
that it provides tighter bounds on the generalization error. Experimentally,
our method achieves significant improvement over the current state-of-the-art
in various datasets, including CIFAR10, CIFAR100, ImageNet-1K, Standford Online
Products and Stanford Cars196 datasets. Code and annotations are available at
https://github.com/MrChenFeng/MaskCon_CVPR2023.
- Abstract(参考訳): 近年のディープラーニングは、高度なニューラルネットワーク構造と大規模な人間アノテーションデータセットの助けを借りて大きな成功を収めている。
しかし、特にきめ細かいラベルが必要な特定の領域において、大規模データセットを正確かつ効率的にアノテートすることは、しばしば費用がかかる。
この設定では、粗いラベルは専門家の知識を必要としないため、より容易に取得できる。
本研究では,より詳細なラベル付け問題に対処するために,粗いラベル付きデータセットを用いて学習する,$\textbf{Mask}$ed $\textbf{Con}$trastive Learning~($\textbf{MaskCon}$)という対照的な学習手法を提案する。
より具体的には、対照的な学習フレームワークにおいて、本手法は、他のサンプルに対する粗いラベルと、問題となるサンプルの別の拡張ビューを用いて、各サンプルに対してソフトラベルを生成する。
自己教師付きコントラスト学習とは対照的に,サンプルの増大のみをハード陽性とみなし,同じ粗いラベルを持つサンプルのみをハード陽性とみなす教師付きコントラスト学習では,粗いラベルによって隠蔽されるサンプル距離に基づくソフトラベルを提案する。
これにより、サンプル間関係と粗いラベルの両方を利用することができます。
提案手法は,既存の最先端作品の多くを特殊ケースとして得ることができ,一般化誤差の厳密な境界を提供することを示す。
実験により,CIFAR10,CIFAR100,ImageNet-1K,Standford Online Products,Stanford Cars196データセットなど,さまざまなデータセットにおける現状よりも大幅に改善されている。
コードとアノテーションはhttps://github.com/mrchenfeng/maskcon_cvpr2023で入手できる。
関連論文リスト
- MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D
Object Detection [59.1417156002086]
MixSupは、大量の安価な粗いラベルと、Mixed-fine Supervisionの限られた数の正確なラベルを同時に活用する、より実用的なパラダイムである。
MixSupは、安価なクラスタアノテーションと10%のボックスアノテーションを使用して、完全な教師付きパフォーマンスの97.31%を達成している。
論文 参考訳(メタデータ) (2024-01-29T17:05:19Z) - Inconsistency Masks: Removing the Uncertainty from Input-Pseudo-Label Pairs [0.0]
Inconsistency Masks (IM) は、画像と擬似ラベルのペアの不確実性をフィルタリングし、セグメンテーションの品質を大幅に向上させる新しい手法である。
4つの多様なデータセットに対して10%のラベル付きデータで強力なセグメンテーション結果を得る。
3つのハイブリッドアプローチは、完全にラベル付けされたデータセットでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2024-01-25T18:46:35Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Robust Assignment of Labels for Active Learning with Sparse and Noisy
Annotations [0.17188280334580192]
監視された分類アルゴリズムは、世界中の多くの現実の問題を解決するために使用される。
残念なことに、多くのタスクに対して良質なアノテーションを取得することは、実際に行うには不可能か、あるいはコストがかかりすぎます。
サンプル空間のラベルのない部分を利用する2つの新しいアノテーション統一アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-25T19:40:41Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - GuidedMix-Net: Semi-supervised Semantic Segmentation by Using Labeled
Images as Reference [90.5402652758316]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
ラベル付き情報を使用して、ラベルなしのインスタンスの学習をガイドする。
競合セグメンテーションの精度を達成し、mIoUを以前のアプローチに比べて+7$%大きく改善する。
論文 参考訳(メタデータ) (2021-12-28T06:48:03Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - OpenMix: Reviving Known Knowledge for Discovering Novel Visual
Categories in An Open World [127.64076228829606]
オープンセットからのラベルなし例と既知のクラスからのラベル付き例を混合するために、OpenMixを導入します。
OpenMixは、間違った擬似ラベルで割り当てられる可能性のあるラベルのないサンプルに対して、モデルが過度に適合することを防ぐのに役立つ。
論文 参考訳(メタデータ) (2020-04-12T05:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。