論文の概要: ContrastMask: Contrastive Learning to Segment Every Thing
- arxiv url: http://arxiv.org/abs/2203.09775v1
- Date: Fri, 18 Mar 2022 07:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:10:09.122147
- Title: ContrastMask: Contrastive Learning to Segment Every Thing
- Title(参考訳): ContrastMask: あらゆるものをセグメンテーションするためのコントラスト学習
- Authors: Xuehui Wang, Kai Zhao, Ruixin Zhang, Shouhong Ding, Yan Wang, Wei Shen
- Abstract要約: ContrastMaskを提案する。これは、目に見えないカテゴリと見えないカテゴリの両方でマスクセグメンテーションモデルを学ぶ。
仮面地域(地上)の特徴をまとめ、背景の特徴と対比する。
COCOデータセットの探索実験により,本手法の優位性を実証した。
- 参考スコア(独自算出の注目度): 18.265503138997794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Partially-supervised instance segmentation is a task which requests
segmenting objects from novel unseen categories via learning on limited seen
categories with annotated masks thus eliminating demands of heavy annotation
burden. The key to addressing this task is to build an effective class-agnostic
mask segmentation model. Unlike previous methods that learn such models only on
seen categories, in this paper, we propose a new method, named ContrastMask,
which learns a mask segmentation model on both seen and unseen categories under
a unified pixel-level contrastive learning framework. In this framework,
annotated masks of seen categories and pseudo masks of unseen categories serve
as a prior for contrastive learning, where features from the mask regions
(foreground) are pulled together, and are contrasted against those from the
background, and vice versa. Through this framework, feature discrimination
between foreground and background is largely improved, facilitating learning of
the class-agnostic mask segmentation model. Exhaustive experiments on the COCO
dataset demonstrate the superiority of our method, which outperforms previous
state-of-the-arts.
- Abstract(参考訳): 部分教師付きインスタンスセグメンテーション(partial-supervised instance segmentation)は、注釈付きマスクによる限定されたカテゴリの学習を通じて、新しい未知のカテゴリからオブジェクトのセグメンテーションを要求するタスクである。
この課題に対処する鍵は、効果的なクラス非依存マスクセグメンテーションモデルを構築することである。
本稿では,このようなモデルを既往のカテゴリでのみ学習する手法と異なり,画素レベルのコントラスト学習の枠組みを用いて,見たカテゴリと見えないカテゴリの両方でマスクセグメンテーションモデルを学ぶ,con contrastmaskという新しい手法を提案する。
この枠組みでは、目に見えるカテゴリの注釈付きマスクと、目に見えないカテゴリの擬似マスクがコントラスト学習の先行として機能し、マスク領域(地上)の特徴をまとめて背景のマスクと対比する。
この枠組みにより、前景と背景の特徴識別が大幅に改善され、クラス非依存マスクセグメンテーションモデルの学習が容易になった。
COCOデータセットの発掘実験により,従来の最先端技術よりも優れた手法が示された。
関連論文リスト
- Masked Image Modeling Boosting Semi-Supervised Semantic Segmentation [38.55611683982936]
クラスごとに異なる画像領域を独立に再構成する新しいクラスワイド・マスク画像モデリングを提案する。
我々は,同一クラス内のマスキングと可視部分に対応する特徴間の距離を最小化する特徴集約戦略を開発する。
セマンティック空間において、正規化を強化するマスク付き画像モデリングの適用について検討する。
論文 参考訳(メタデータ) (2024-11-13T16:42:07Z) - Mask-free OVIS: Open-Vocabulary Instance Segmentation without Manual
Mask Annotations [86.47908754383198]
Open-Vocabulary (OV) 法は、大規模な画像キャプチャペアと視覚言語モデルを利用して、新しいカテゴリを学習する。
提案手法は,イメージキャプションペアに存在するオブジェクトに対して,事前学習された視覚言語モデルの局所化能力を活用することで,擬似マスクアノテーションを生成する。
擬似マスクを用いてトレーニングした手法は,MS-COCOデータセットとOpenImagesデータセットのmAPスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-29T17:58:39Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Investigating and Simplifying Masking-based Saliency Methods for Model
Interpretability [5.387323728379395]
画像の最も情報性の高い領域を識別する残差マップは、モデル解釈可能性に有用である。
唾液マップを作成するための一般的なアプローチは、画像の一部をマスクする入力マスクを生成することである。
マスキングモデルでは,クラス毎に10個のサンプルをトレーニングすることが可能であり,ローカライズエラーが0.7ポイントしか増加せず,いまだにサリエンシマップを生成可能であることを示す。
論文 参考訳(メタデータ) (2020-10-19T18:00:36Z) - Causal Intervention for Weakly-Supervised Semantic Segmentation [122.1846968696862]
画像レベルのラベルのみを用いて、より優れたピクセルレベルの擬似マスクを生成することを目指している。
画像,コンテキスト,およびクラスラベル間の因果関係を分析するための構造因果モデルを提案する。
そこで本研究では,画像レベルの分類において,矛盾するバイアスを取り除くためのコンテキスト調整(CONTA)手法を提案する。
論文 参考訳(メタデータ) (2020-09-26T09:26:29Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。