論文の概要: Spatial Consistency Loss for Training Multi-Label Classifiers from
Single-Label Annotations
- arxiv url: http://arxiv.org/abs/2203.06127v1
- Date: Fri, 11 Mar 2022 17:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:59:58.404243
- Title: Spatial Consistency Loss for Training Multi-Label Classifiers from
Single-Label Annotations
- Title(参考訳): 単一ラベルアノテーションを用いた複数ラベル分類器の訓練における空間的整合性損失
- Authors: Thomas Verelst, Paul K. Rubenstein, Marcin Eichner, Tinne Tuytelaars,
Maxim Berman
- Abstract要約: マルチラベルの分類はシングルラベルの分類よりも「野生で」適用できる。
整合性損失を加えることは、弱教師付き環境でマルチラベル分類器を訓練するための単純かつ効果的な方法であることを示す。
また、ReaLマルチラベル検証セットを用いて、ImageNet-1K上のマルチラベル分類mAPを改善した。
- 参考スコア(独自算出の注目度): 39.69823105183408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As natural images usually contain multiple objects, multi-label image
classification is more applicable "in the wild" than single-label
classification. However, exhaustively annotating images with every object of
interest is costly and time-consuming. We aim to train multi-label classifiers
from single-label annotations only. We show that adding a consistency loss,
ensuring that the predictions of the network are consistent over consecutive
training epochs, is a simple yet effective method to train multi-label
classifiers in a weakly supervised setting. We further extend this approach
spatially, by ensuring consistency of the spatial feature maps produced over
consecutive training epochs, maintaining per-class running-average heatmaps for
each training image. We show that this spatial consistency loss further
improves the multi-label mAP of the classifiers. In addition, we show that this
method overcomes shortcomings of the "crop" data-augmentation by recovering
correct supervision signal even when most of the single ground truth object is
cropped out of the input image by the data augmentation. We demonstrate gains
of the consistency and spatial consistency losses over the binary cross-entropy
baseline, and over competing methods, on MS-COCO and Pascal VOC. We also
demonstrate improved multi-label classification mAP on ImageNet-1K using the
ReaL multi-label validation set.
- Abstract(参考訳): 自然画像は通常複数のオブジェクトを含むため、複数ラベルのイメージ分類はシングルラベルの分類よりも「野生で」適用することができる。
しかし、興味のあるすべてのオブジェクトで画像に徹底的に注釈を付けるのはコストと時間を要する。
シングルラベルアノテーションからのみマルチラベル分類器をトレーニングすることを目指している。
ネットワークの予測が連続したトレーニング期間を通じて一貫していることを保証する一貫性損失が,マルチラベル分類器を弱い教師付き設定で訓練するための単純かつ効果的な方法であることを示す。
連続的な訓練エポック上で生成された空間特徴写像の整合性を確保し,各トレーニング画像に対するクラスごとのランニング平均ヒートマップを維持することにより,このアプローチをさらに拡張する。
この空間的整合性損失は、分類器のマルチラベルmAPをさらに改善することを示す。
また,本手法は,データ拡張によって入力画像から1つのグランド真理オブジェクトのほとんどが切り抜かれた場合でも,正しい監視信号を復元することにより,「クロップ」データ表示の欠点を克服することを示す。
我々は,MS-COCO と Pascal VOC において,二進的クロスエントロピーベースラインと競合する手法の整合性と空間的整合性損失の増大を示す。
また、ReaLマルチラベル検証セットを用いて、ImageNet-1K上のマルチラベル分類mAPを改善した。
関連論文リスト
- CDUL: CLIP-Driven Unsupervised Learning for Multi-Label Image
Classification [23.392746466420128]
アノテーションのないマルチラベル画像分類のためのCLIPに基づく教師なし学習手法を提案する。
我々は、強力なCLIPモデルを完全に活用し、グローバルローカルな画像-テキスト類似性アグリゲーションに基づくマルチラベル予測のためのCLIPの拡張手法を提案する。
提案手法は,MS-COCO,PASCAL VOC 2007,PASCAL VOC 2012,NASデータセット上で,最先端の教師なし手法より優れている。
論文 参考訳(メタデータ) (2023-07-31T13:12:02Z) - Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - Label Structure Preserving Contrastive Embedding for Multi-Label
Learning with Missing Labels [30.79809627981242]
欠落ラベルを識別するためのラベル補正機構を導入し、欠落ラベル(CLML)を用いた多ラベル画像分類において、ユニークなコントラスト損失を定義する。
既存のマルチラベルCLの損失とは異なり、CLMLは潜在表現空間における低ランクなグローバルおよびローカルなラベル依存性も保持する。
提案した戦略は、3つの標準データセットでそれぞれ1.2%、1.6%、および1.3%のマージンでResnet101モデルの分類性能を改善することが示されている。
論文 参考訳(メタデータ) (2022-09-03T02:44:07Z) - PLMCL: Partial-Label Momentum Curriculum Learning for Multi-Label Image
Classification [25.451065364433028]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージがラベルのサブセットでアノテートされている場合に焦点を当てている。
本稿では,トレーニング画像のサブセットのみをラベル付けした新たな部分ラベル設定を提案する。
論文 参考訳(メタデータ) (2022-08-22T01:23:08Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Rank-Consistency Deep Hashing for Scalable Multi-Label Image Search [90.30623718137244]
スケーラブルなマルチラベル画像検索のための新しいディープハッシュ法を提案する。
2つの空間の類似性順序を整列するために、新しい階数整合性目的を適用した。
強力な損失関数は、意味的類似性とハミング距離が一致しないサンプルをペナルティ化するように設計されている。
論文 参考訳(メタデータ) (2021-02-02T13:46:58Z) - Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels [34.13899937264952]
ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
論文 参考訳(メタデータ) (2021-01-13T11:55:58Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Joint Visual and Temporal Consistency for Unsupervised Domain Adaptive
Person Re-Identification [64.37745443119942]
本稿では,局所的なワンホット分類とグローバルなマルチクラス分類を組み合わせることで,視覚的・時間的整合性を両立させる。
3つの大規模ReIDデータセットの実験結果は、教師なしと教師なしの両方のドメイン適応型ReIDタスクにおいて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-07-21T14:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。