論文の概要: Contrastive Learning for Label-Efficient Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2012.06985v3
- Date: Tue, 6 Apr 2021 00:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 18:26:16.383004
- Title: Contrastive Learning for Label-Efficient Semantic Segmentation
- Title(参考訳): ラベル効率の高い意味セグメンテーションのためのコントラスト学習
- Authors: Xiangyun Zhao, Raviteja Vemulapalli, Philip Mansfield, Boqing Gong,
Bradley Green, Lior Shapira, Ying Wu
- Abstract要約: Convolutional Neural Network(CNN)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きデータを使用して印象的な結果を達成しました。
事実上のクロスエントロピー損失でトレーニングされたディープCNNは、少量のラベル付きデータに容易に適合する。
簡便で効果的な対比学習型トレーニング戦略を提案し、まずはピクセル単位のラベルベースの対比損失を用いてネットワークを前訓練します。
- 参考スコア(独自算出の注目度): 44.10416030868873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collecting labeled data for the task of semantic segmentation is expensive
and time-consuming, as it requires dense pixel-level annotations. While recent
Convolutional Neural Network (CNN) based semantic segmentation approaches have
achieved impressive results by using large amounts of labeled training data,
their performance drops significantly as the amount of labeled data decreases.
This happens because deep CNNs trained with the de facto cross-entropy loss can
easily overfit to small amounts of labeled data. To address this issue, we
propose a simple and effective contrastive learning-based training strategy in
which we first pretrain the network using a pixel-wise, label-based contrastive
loss, and then fine-tune it using the cross-entropy loss. This approach
increases intra-class compactness and inter-class separability, thereby
resulting in a better pixel classifier. We demonstrate the effectiveness of the
proposed training strategy using the Cityscapes and PASCAL VOC 2012
segmentation datasets. Our results show that pretraining with the proposed
contrastive loss results in large performance gains (more than 20% absolute
improvement in some settings) when the amount of labeled data is limited. In
many settings, the proposed contrastive pretraining strategy, which does not
use any additional data, is able to match or outperform the widely-used
ImageNet pretraining strategy that uses more than a million additional labeled
images.
- Abstract(参考訳): セマンティックセグメンテーションのタスクのためのラベル付きデータの収集は、ピクセルレベルの密集したアノテーションを必要とするため、高価で時間がかかります。
最近の畳み込みニューラルネットワーク(cnn)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きトレーニングデータを使用することで印象的な成果を上げているが、ラベル付きデータの量が減少するにつれて、そのパフォーマンスは大幅に低下する。
これは、デファクトのクロスエントロピー損失でトレーニングされた深いCNNが、少数のラベル付きデータに容易にオーバーフィットできるためである。
この問題に対処するために,我々はまず,ピクセル単位でラベルベースのコントラスト損失を用いてネットワークを事前学習し,次にクロスエントロピー損失を用いて微調整する,簡易かつ効果的なコントラスト学習ベースのトレーニング戦略を提案する。
このアプローチによりクラス内コンパクト性とクラス間分離性が向上し、ピクセル分類器が向上する。
本研究では,CityscapesとPASCAL VOC 2012セグメンテーションデータセットを用いたトレーニング戦略の有効性を示す。
その結果,ラベル付きデータ量に制限がある場合,提案するコントラスト損失による事前学習は高い性能向上(一部の設定では20%以上の絶対改善)をもたらすことがわかった。
多くの設定において、追加データを使用しないコントラスト付き事前学習戦略は、100万以上のラベル付き画像を使用する広く使用されているImageNet事前学習戦略に適合または優れる。
関連論文リスト
- Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z) - Tackling the Problem of Limited Data and Annotations in Semantic
Segmentation [1.0152838128195467]
画像セグメンテーションにおける限られたデータアノテーションの問題に対処するために、異なる事前訓練されたモデルとCRFベースの手法を適用した。
この目的のために、RotNet、DeeperCluster、Semi&Weakly Supervised Learning (SWSL)が事前訓練されたモデルをDeepLab-v2ベースラインで転送、微調整する。
その結果、この小さなデータセットでは、事前トレーニングされたResNet50 SWSLモデルを使用することで、ImageNet事前トレーニングされたモデルよりも7.4%良い結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-14T21:11:11Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Reinforced active learning for image segmentation [34.096237671643145]
深部強化学習(RL)に基づく意味的セグメンテーションのための新しいアクティブラーニング戦略を提案する。
エージェントは、ラベルなしデータのプールからラベル付けされる小さな情報領域(画像全体とは対照的に)のサブセットを選択するポリシーを学ぶ。
本手法では, 意味的セグメンテーション問題の大規模性質に適応して, 能動的学習のための深部Q-network (DQN) の定式化を新たに提案する。
論文 参考訳(メタデータ) (2020-02-16T14:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。