論文の概要: Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels
- arxiv url: http://arxiv.org/abs/2101.05022v1
- Date: Wed, 13 Jan 2021 11:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:24:25.292259
- Title: Re-labeling ImageNet: from Single to Multi-Labels, from Global to
Localized Labels
- Title(参考訳): imagenetの再ラベル:シングルからマルチラベル、グローバルからローカライズラベル
- Authors: Sangdoo Yun, Seong Joon Oh, Byeongho Heo, Dongyoon Han, Junsuk Choe,
Sanghyuk Chun
- Abstract要約: ImageNetは間違いなく最も人気のある画像分類ベンチマークですが、ラベルノイズのかなりのレベルを持つものでもあります。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
私たちは、単一ラベルアノテーションと効果的に複数のラベル画像の間のミスマッチは、ランダムな作物が適用されるトレーニングセットアップにおいて同様に問題であると主張しています。
- 参考スコア(独自算出の注目度): 34.13899937264952
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: ImageNet has been arguably the most popular image classification benchmark,
but it is also the one with a significant level of label noise. Recent studies
have shown that many samples contain multiple classes, despite being assumed to
be a single-label benchmark. They have thus proposed to turn ImageNet
evaluation into a multi-label task, with exhaustive multi-label annotations per
image. However, they have not fixed the training set, presumably because of a
formidable annotation cost. We argue that the mismatch between single-label
annotations and effectively multi-label images is equally, if not more,
problematic in the training setup, where random crops are applied. With the
single-label annotations, a random crop of an image may contain an entirely
different object from the ground truth, introducing noisy or even incorrect
supervision during training. We thus re-label the ImageNet training set with
multi-labels. We address the annotation cost barrier by letting a strong image
classifier, trained on an extra source of data, generate the multi-labels. We
utilize the pixel-wise multi-label predictions before the final pooling layer,
in order to exploit the additional location-specific supervision signals.
Training on the re-labeled samples results in improved model performances
across the board. ResNet-50 attains the top-1 classification accuracy of 78.9%
on ImageNet with our localized multi-labels, which can be further boosted to
80.2% with the CutMix regularization. We show that the models trained with
localized multi-labels also outperforms the baselines on transfer learning to
object detection and instance segmentation tasks, and various robustness
benchmarks. The re-labeled ImageNet training set, pre-trained weights, and the
source code are available at {https://github.com/naver-ai/relabel_imagenet}.
- Abstract(参考訳): ImageNetは間違いなく最も人気のある画像分類ベンチマークであるが、ラベルノイズがかなり高いベンチマークでもある。
近年の研究では、シングルラベルベンチマークと仮定されているにもかかわらず、多くのサンプルが複数のクラスを含んでいることが示されている。
そのため、イメージネットの評価を、画像毎に徹底的な複数ラベルアノテーションを備えたマルチラベルタスクにすることを提案している。
しかし、おそらくアノテーションコストがひどいため、トレーニングセットは修正されていない。
単一ラベルのアノテーションと効果的に複数ラベルのイメージのミスマッチは、ランダムな作物が適用されるトレーニング設定において問題となる。
シングルラベルアノテーションでは、画像のランダムな収穫物は、基礎的な真実とは全く異なるオブジェクトを含んでいて、トレーニング中にノイズや不正な監視を導入する。
そこで我々は,imagenet トレーニングセットをマルチラベルで再ラベルする。
我々は,強固な画像分類器を,余分なデータソースに基づいて訓練し,マルチラベルを生成することで,アノテーションコストの障壁に対処する。
最終プーリング層に先立って,画素単位のマルチラベル予測を行い,付加的な位置特異的監視信号を利用する。
再ラベルされたサンプルのトレーニングにより、ボード全体のモデルパフォーマンスが改善される。
ResNet-50は、当社のローカライズされたマルチラベルでImageNetで78.9%のトップ1の分類精度を獲得し、CutMix正規化によってさらに80.2%に向上できる。
ローカライズされたマルチラベルでトレーニングされたモデルは、オブジェクト検出やインスタンスセグメンテーションタスクへの転送学習のベースラインや、さまざまなロバスト性ベンチマークよりも優れています。
re-labeled imagenet training set, pre-trained weights, and the source codeは、{https://github.com/naver-ai/relabel_imagenet}で入手できる。
関連論文リスト
- Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - Pseudo Labels for Single Positive Multi-Label Learning [0.0]
単一正のマルチラベル学習(SPML)はコスト効率の良いソリューションであり、モデルがイメージ毎にひとつの正のラベルでトレーニングされる。
本研究では,1つの正のデータを完全なラベル付きデータに変換する手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T17:21:42Z) - G2NetPL: Generic Game-Theoretic Network for Partial-Label Image
Classification [14.82038002764209]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージが正負のラベルのサブセットでラベル付けされている場合に焦点を当てている。
本稿では、部分ラベル学習のためのエンドツーエンドのジェネリックゲーム理論ネットワーク(G2NetPL)を提案する。
論文 参考訳(メタデータ) (2022-10-20T17:59:21Z) - PLMCL: Partial-Label Momentum Curriculum Learning for Multi-Label Image
Classification [25.451065364433028]
マルチラベル画像分類は、画像内の全ての可能なラベルを予測することを目的としている。
既存の部分ラベル学習の研究は、各トレーニングイメージがラベルのサブセットでアノテートされている場合に焦点を当てている。
本稿では,トレーニング画像のサブセットのみをラベル付けした新たな部分ラベル設定を提案する。
論文 参考訳(メタデータ) (2022-08-22T01:23:08Z) - Semantic-Aware Representation Blending for Multi-Label Image Recognition
with Partial Labels [86.17081952197788]
そこで我々は,未知のラベルを補うために,異なる画像にカテゴリ固有の表現をブレンドして,既知のラベルの情報を伝達することを提案する。
MS-COCO、Visual Genome、Pascal VOC 2007データセットの実験は、提案されたSARBフレームワークが、現在の主要な競合相手よりも優れたパフォーマンスを得ることを示している。
論文 参考訳(メタデータ) (2022-03-04T07:56:16Z) - Multi-label Iterated Learning for Image Classification with Label
Ambiguity [3.5736176624479654]
単一ラベルからの多ラベル学習の帰納バイアスを組み込むために,多ラベル反復学習(MILe)を提案する。
MILeは、バイナリ予測を伝搬することにより、画像のマルチラベル記述を構築する、シンプルだが効果的な手順である。
我々は,MILeがラベルノイズを効果的に低減し,WebVisionのような実世界の大規模ノイズデータに対して最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-23T22:10:00Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Multi-Label Learning from Single Positive Labels [37.17676289125165]
与えられた画像に対して適用可能なラベルを全て予測することは、マルチラベル分類(multi-label classification)として知られている。
その結果,ラベルの確認が著しく少ないにもかかわらず,完全ラベル付き分類器の性能にアプローチできることが示唆された。
論文 参考訳(メタデータ) (2021-06-17T17:58:04Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。