論文の概要: Context Prior for Scene Segmentation
- arxiv url: http://arxiv.org/abs/2004.01547v1
- Date: Fri, 3 Apr 2020 13:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 04:47:14.023847
- Title: Context Prior for Scene Segmentation
- Title(参考訳): シーンセグメンテーションに先立つコンテキスト
- Authors: Changqian Yu, Jingbo Wang, Changxin Gao, Gang Yu, Chunhua Shen, Nong
Sang
- Abstract要約: 我々はアフィニティ・ロスを監督する文脈優先を開発する。
学習されたコンテキスト優先は、同じカテゴリに属するピクセルを抽出し、逆のコンテキスト優先は異なるクラスのピクセルに焦点を当てる。
本アルゴリズムはADE20Kで46.3% mIoU,PASCAL-Contextで53.9% mIoU,Cityscapesで81.3% mIoUを達成した。
- 参考スコア(独自算出の注目度): 118.46210049742993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have widely explored the contextual dependencies to achieve more
accurate segmentation results. However, most approaches rarely distinguish
different types of contextual dependencies, which may pollute the scene
understanding. In this work, we directly supervise the feature aggregation to
distinguish the intra-class and inter-class context clearly. Specifically, we
develop a Context Prior with the supervision of the Affinity Loss. Given an
input image and corresponding ground truth, Affinity Loss constructs an ideal
affinity map to supervise the learning of Context Prior. The learned Context
Prior extracts the pixels belonging to the same category, while the reversed
prior focuses on the pixels of different classes. Embedded into a conventional
deep CNN, the proposed Context Prior Layer can selectively capture the
intra-class and inter-class contextual dependencies, leading to robust feature
representation. To validate the effectiveness, we design an effective Context
Prior Network (CPNet). Extensive quantitative and qualitative evaluations
demonstrate that the proposed model performs favorably against state-of-the-art
semantic segmentation approaches. More specifically, our algorithm achieves
46.3% mIoU on ADE20K, 53.9% mIoU on PASCAL-Context, and 81.3% mIoU on
Cityscapes. Code is available at https://git.io/ContextPrior.
- Abstract(参考訳): 最近の研究は、より正確なセグメンテーション結果を得るためにコンテキスト依存を広く研究してきた。
しかし、ほとんどのアプローチは文脈依存の異なるタイプを区別することは滅多になく、シーン理解を汚染する可能性がある。
本研究では,機能集約を直接監督し,クラス内コンテキストとクラス間コンテキストを明確に区別する。
具体的には、親和性喪失の監視を伴うコンテキスト優先を開発する。
Affinity Lossは入力画像とそれに対応する基底真理を与えられた場合、コンテキスト優先の学習を監督するために理想的な親和性マップを構築する。
学習されたContext Priorは同じカテゴリに属するピクセルを抽出し、逆のContext Priorは異なるクラスのピクセルに焦点を当てる。
従来のディープCNNに組み込み、提案されたContext Prior Layerは、クラス内およびクラス間依存関係を選択的にキャプチャし、堅牢な特徴表現につながる。
有効性を検証するために,有効なコンテキスト優先ネットワーク(CPNet)を設計する。
広範な定量的・質的評価は,提案手法が最先端のセマンティクスセグメンテーションアプローチに対して好適に機能することを示す。
具体的には、ADE20Kで46.3% mIoU、PASCAL-Contextで53.9% mIoU、Cityscapesで81.3% mIoUを達成する。
コードはhttps://git.io/ContextPrior.orgで入手できる。
関連論文リスト
- Copy-Pasting Coherent Depth Regions Improves Contrastive Learning for
Urban-Scene Segmentation [14.742591401997048]
我々は,その推定深度から,コヒーレントな意味的関連画素をコヒーレントな深度領域にグループ化する。
我々の方法は、過去の最先端のベースラインを +7.14% の mIoU と +6.65% の KITTI で上回る。
論文 参考訳(メタデータ) (2022-11-25T12:52:08Z) - CoDo: Contrastive Learning with Downstream Background Invariance for
Detection [10.608660802917214]
下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-10T01:26:15Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Contextual Diversity for Active Learning [9.546771465714876]
大規模なデータセットは、多くの実用化のためにディープ畳み込みニューラルネットワーク(CNN)の使用を制限する。
空間的に共起するクラスに関連した混乱を捉える文脈的多様性の概念を導入する。
本研究は,活発な学習に文脈的多様性を用いることの利点を明らかにした。
論文 参考訳(メタデータ) (2020-08-13T07:04:15Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。