論文の概要: Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals
- arxiv url: http://arxiv.org/abs/2102.06191v1
- Date: Thu, 11 Feb 2021 18:54:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 14:20:45.576935
- Title: Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals
- Title(参考訳): オブジェクトマスク提案のコントラストによる教師なしセマンティックセグメンテーション
- Authors: Wouter Van Gansbeke, Simon Vandenhende, Stamatios Georgoulis, Luc Van
Gool
- Abstract要約: 画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
- 参考スコア(独自算出の注目度): 78.12377360145078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being able to learn dense semantic representations of images without
supervision is an important problem in computer vision. However, despite its
significance, this problem remains rather unexplored, with a few exceptions
that considered unsupervised semantic segmentation on small-scale datasets with
a narrow visual domain. In this paper, we make a first attempt to tackle the
problem on datasets that have been traditionally utilized for the supervised
case. To achieve this, we introduce a novel two-step framework that adopts a
predetermined prior in a contrastive optimization objective to learn pixel
embeddings. This marks a large deviation from existing works that relied on
proxy tasks or end-to-end clustering. Additionally, we argue about the
importance of having a prior that contains information about objects, or their
parts, and discuss several possibilities to obtain such a prior in an
unsupervised manner.
Extensive experimental evaluation shows that the proposed method comes with
key advantages over existing works. First, the learned pixel embeddings can be
directly clustered in semantic groups using K-Means. Second, the method can
serve as an effective unsupervised pre-training for the semantic segmentation
task. In particular, when fine-tuning the learned representations using just 1%
of labeled examples on PASCAL, we outperform supervised ImageNet pre-training
by 7.1% mIoU. The code is available at
https://github.com/wvangansbeke/Unsupervised-Semantic-Segmentation.
- Abstract(参考訳): 監視なしで画像の密集した意味表現を学べることは、コンピュータビジョンの重要な問題である。
しかし、その重要性にもかかわらず、この問題は未解明のままであり、狭い視覚領域を持つ小規模データセットの監視されていないセマンティックセグメンテーションを検討するいくつかの例外がある。
本論文では,従来,監視ケースに活用されてきたデータセットの課題に対処すべく,まず第1の試みを行う。
そこで本研究では, 画素埋め込みを学習するためのコントラスト最適化目標において, 予め規定された2段階のフレームワークを提案する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱する。
さらに,オブジェクトやその部分に関する情報を含む事前情報を持つことの重要性を議論し,教師なしの方法で事前情報を得るためのいくつかの可能性について議論する。
広範な実験結果から,提案手法は既存手法よりも優れていることがわかった。
まず、学習したピクセルの埋め込みをK-Meansを使って意味群に直接クラスタ化することができる。
第二に、セマンティックセグメンテーションタスクの効果的な教師なし事前トレーニングとして機能する。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
コードはhttps://github.com/wvangansbeke/Unsupervised-Semantic-Segmentationで入手できる。
関連論文リスト
- CrOC: Cross-View Online Clustering for Dense Visual Representation
Learning [39.12950211289954]
本稿では,オンラインクラスタリング機構(CrOC)を用いて,ビューのセマンティクスを発見し,セグメンテーションするクロスビュー整合性目標を提案する。
手作りの事前処理がなければ、結果の方法はより一般化可能であり、面倒な前処理ステップを必要としない。
各種データセット上での線形および教師なしセグメンテーション伝達タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-03-23T13:24:16Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Unsupervised Image Segmentation by Mutual Information Maximization and
Adversarial Regularization [7.165364364478119]
InMARS(Information Maximization and Adrial Regularization)と呼ばれる新しい教師なしセマンティックセマンティックセマンティクス手法を提案する。
シーンを知覚群に解析する人間の知覚に触発され、提案手法はまず、入力画像を意味のある領域(スーパーピクセルとも呼ばれる)に分割する。
次に、相互情報最大化(Multual-Information-Maximization)と、それらの領域を意味論的に意味のあるクラスにクラスタ化するための敵対的トレーニング戦略を利用する。
提案手法は2つの非教師付きセマンティックセグメンテーションデータセット上での最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2021-07-01T18:36:27Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Find it if You Can: End-to-End Adversarial Erasing for Weakly-Supervised
Semantic Segmentation [6.326017213490535]
本稿では,注目マップの逆消去の新たな定式化を提案する。
提案手法はサリエンシマスクを必要とせず, 注意マップの識別対象領域への拡散を防止するために, 正規化損失を用いる。
パスカルVOCデータセットを用いた実験により, 従来と比べ2.1mIoU, 1.0mIoUのセグメンテーション性能が向上することが示された。
論文 参考訳(メタデータ) (2020-11-09T18:35:35Z) - Unsupervised Part Discovery by Unsupervised Disentanglement [10.664434993386525]
部分分割は、個々のピクセルのレベルにおける部分ローカライゼーションに関する情報を提供する。
大きなアノテーションのコストは、教師付きアルゴリズムのスケーラビリティを他のオブジェクトカテゴリに制限します。
我々の研究は、監督なしに意味的部分のセグメンテーションを発見できる可能性を示している。
論文 参考訳(メタデータ) (2020-09-09T12:34:37Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。