論文の概要: Bootstrapping Semantic Segmentation with Regional Contrast
- arxiv url: http://arxiv.org/abs/2104.04465v2
- Date: Mon, 12 Apr 2021 00:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 11:09:13.443933
- Title: Bootstrapping Semantic Segmentation with Regional Contrast
- Title(参考訳): 地域コントラストを用いたブートストラップセマンティックセマンティックセグメンテーション
- Authors: Shikun Liu, Shuaifeng Zhi, Edward Johns, Andrew J. Davison
- Abstract要約: ReCoは、セマンティックセグメンテーションにおける学習を支援するために、地域レベルで設計されたコントラスト学習フレームワークです。
CityScapesデータセットでは50% mIoUを達成でき、ラベル付き画像は20枚しか必要とせず、以前の最先端と比較して10%改善しています。
- 参考スコア(独自算出の注目度): 27.494579304204226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ReCo, a contrastive learning framework designed at a regional
level to assist learning in semantic segmentation. ReCo performs
semi-supervised or supervised pixel-level contrastive learning on a sparse set
of hard negative pixels, with minimal additional memory footprint. ReCo is easy
to implement, being built on top of off-the-shelf segmentation networks, and
consistently improves performance in both semi-supervised and supervised
semantic segmentation methods, achieving smoother segmentation boundaries and
faster convergence. The strongest effect is in semi-supervised learning with
very few labels. With ReCo, we achieve 50% mIoU in the CityScapes dataset,
whilst requiring only 20 labelled images, improving by 10% relative to the
previous state-of-the-art. Code is available at
https://github.com/lorenmt/reco.
- Abstract(参考訳): 本稿では,セマンティックセグメンテーションの学習を支援するため,地域レベルで設計されたコントラスト学習フレームワークrecoを提案する。
ReCoは、半教師付きまたは教師付きピクセルレベルのコントラスト学習を、最小限のメモリフットプリントで、ハードネガティブピクセルのスパースセットで実行する。
ReCoは実装が容易で、既製のセグメンテーションネットワーク上に構築されており、半教師付きセグメンテーションと教師付きセグメンテーションの両方のパフォーマンスを一貫して改善し、スムーズなセグメンテーション境界とより高速な収束を実現している。
最も強い効果は、ほとんどラベルのない半教師付き学習である。
ReCoでは、CityScapesデータセットで50% mIoUを達成していますが、ラベル付きイメージは20しか必要ありません。
コードはhttps://github.com/lorenmt/recoで入手できる。
関連論文リスト
- Early Fusion of Features for Semantic Segmentation [10.362589129094975]
本稿では,効率的な画像分割を実現するために,分類器ネットワークとリバースHRNetアーキテクチャを統合する新しいセグメンテーションフレームワークを提案する。
私たちの手法は、Mapillary Vistas、Cityscapes、CamVid、COCO、PASCAL-VOC2012など、いくつかのベンチマークデータセットで厳格にテストされています。
その結果,画像解析における様々な応用の可能性を示し,高いセグメンテーション精度を実現する上で,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-02-08T22:58:06Z) - Weakly-Supervised Semantic Segmentation of Circular-Scan,
Synthetic-Aperture-Sonar Imagery [3.5534342430133514]
本稿では,円スキャン合成開口ソナー(CSAS)画像のセマンティックセグメンテーションのための弱教師付きフレームワークを提案する。
我々は,9つの完全教師付きディープネットワークに対して,我々のフレームワークが相互運用可能であることを示す。
我々は,自然画像の事前学習において,最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-01-20T19:55:36Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - MixReorg: Cross-Modal Mixed Patch Reorganization is a Good Mask Learner
for Open-World Semantic Segmentation [110.09800389100599]
セマンティックセグメンテーションのための新鮮で簡単な事前学習パラダイムであるMixReorgを提案する。
我々のアプローチは、パッチとテキストの対応を保ちながら、画像パッチを混合することで、きめ細かいパッチテキストペアデータを生成することである。
マスク学習者としてMixReorgを使用することで、従来のテキスト教師付きセマンティックセマンティックセマンティックモデルは、非常に一般化可能なピクセル・セマンティックアライメントを実現することができる。
論文 参考訳(メタデータ) (2023-08-09T09:35:16Z) - Dense Siamese Network [86.23741104851383]
本稿では,Dense Siamese Network(DenseSiam)を提案する。
画像の2つのビュー間の類似性を最大化し、ピクセルの一貫性と領域の一貫性という2種類の一貫性を学習する。
最先端のセグメンテーション手法を2.1 mIoUで28%のトレーニングコストで上回っている。
論文 参考訳(メタデータ) (2022-03-21T15:55:23Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。