論文の概要: CP2: Copy-Paste Contrastive Pretraining for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2203.11709v1
- Date: Tue, 22 Mar 2022 13:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 12:37:08.919183
- Title: CP2: Copy-Paste Contrastive Pretraining for Semantic Segmentation
- Title(参考訳): cp2: 意味セグメンテーションのためのコピー・ペースト・コントラスト・プリトレーニング
- Authors: Feng Wang, Huiyu Wang, Chen Wei, Alan Yuille, Wei Shen
- Abstract要約: CP2(Copy-Paste Contrastive Pretraining)と呼ばれる画素単位のコントラスト学習手法を提案する。
詳細は、画像(前景)から異なる背景画像にランダムな作物をコピー・ペーストし、意味的セグメンテーションモデルを事前訓練する。
実験では、下流セマンティックセグメンテーションにおけるCP2の強い性能を示す。
- 参考スコア(独自算出の注目度): 16.082155440640964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in self-supervised contrastive learning yield good
image-level representation, which favors classification tasks but usually
neglects pixel-level detailed information, leading to unsatisfactory transfer
performance to dense prediction tasks such as semantic segmentation. In this
work, we propose a pixel-wise contrastive learning method called CP2
(Copy-Paste Contrastive Pretraining), which facilitates both image- and
pixel-level representation learning and therefore is more suitable for
downstream dense prediction tasks. In detail, we copy-paste a random crop from
an image (the foreground) onto different background images and pretrain a
semantic segmentation model with the objective of 1) distinguishing the
foreground pixels from the background pixels, and 2) identifying the composed
images that share the same foreground.Experiments show the strong performance
of CP2 in downstream semantic segmentation: By finetuning CP2 pretrained models
on PASCAL VOC 2012, we obtain 78.6% mIoU with a ResNet-50 and 79.5% with a
ViT-S.
- Abstract(参考訳): 近年の自己教師付きコントラスト学習の進歩は、分類タスクを好むが、通常はピクセルレベルの詳細な情報を無視し、セマンティックセグメンテーションのような密度の高い予測タスクに不満足な転送性能をもたらす。
本研究では,画像レベルと画素レベルの両方の表現学習を容易にするcp2(copy-paste contrastive pretraining)と呼ばれるピクセル単位のコントラスト学習手法を提案する。
詳細は、画像(前景)から異なる背景画像にランダムな作物をコピー・ペーストし、目的のセグメンテーションモデルを事前訓練する。
1)前景画素と背景画素とを区別し,
2)同じ前景を共有する合成画像の同定。実験では、下流意味セグメンテーションにおけるcp2の強力な性能を示す: pascal voc 2012で事前学習されたcp2モデルを微調整することで、resnet-50で78.6%miou、vit-sで79.5%を得る。
関連論文リスト
- In-N-Out Generative Learning for Dense Unsupervised Video Segmentation [89.21483504654282]
本稿では,ラベルなしビデオから視覚的対応を学習する,教師なしビデオオブジェクト(VOS)タスクに焦点を当てる。
In-aNd-Out(INO)生成学習を純粋に生成的観点から提案する。
我々のINOは、最先端の手法をかなりのマージンで上回っている。
論文 参考訳(メタデータ) (2022-03-29T07:56:21Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z) - CRIS: CLIP-Driven Referring Image Segmentation [71.56466057776086]
エンドツーエンドのCLIP駆動参照画像フレームワーク(CRIS)を提案する。
CRISは、テキストとピクセルのアライメントを達成するために、視覚言語によるデコーディングとコントラスト学習に頼っている。
提案するフレームワークは, 後処理を伴わずに, 最先端の性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-11-30T07:29:08Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Attention-Guided Supervised Contrastive Learning for Semantic
Segmentation [16.729068267453897]
画素ごとの予測タスクでは、セグメンテーションのために1つのイメージに複数のラベルが存在する可能性がある。
本研究では,1つの意味的対象を目標として毎回強調する,注意誘導型教師付きコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:01:11Z) - Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised
Visual Representation Learning [60.75687261314962]
我々は,高密度な特徴表現を学習するための画素レベルのプレテキストタスクを導入する。
ピクセル・ツー・プロパゲーション整合性タスクは、最先端のアプローチよりも優れた結果をもたらす。
結果は、ピクセルレベルでプリテキストタスクを定義する強力な可能性を示している。
論文 参考訳(メタデータ) (2020-11-19T18:59:45Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。