論文の概要: Mask Matching Transformer for Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2301.01208v1
- Date: Mon, 5 Dec 2022 11:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 19:07:38.465543
- Title: Mask Matching Transformer for Few-Shot Segmentation
- Title(参考訳): 少数ショットセグメンテーション用マスクマッチングトランス
- Authors: Siyu Jiao, Gengwei Zhang, Shant Navasardyan, Ling Chen, Yao Zhao,
Yunchao Wei, Humphrey Shi
- Abstract要約: Mask Matching Transformer (MM-Former) は、少数ショットセグメンテーションタスクのための新しいパラダイムである。
まず、MM-Formerは、まず分解し、次にブレンドするというパラダイムに従う。
一般的なCOCO-20i$とPascal-5i$ベンチマークに関する広範な実験を行っている。
- 参考スコア(独自算出の注目度): 71.32725963630837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to tackle the challenging few-shot segmentation task
from a new perspective. Typical methods follow the paradigm to firstly learn
prototypical features from support images and then match query features in
pixel-level to obtain segmentation results. However, to obtain satisfactory
segments, such a paradigm needs to couple the learning of the matching
operations with heavy segmentation modules, limiting the flexibility of design
and increasing the learning complexity. To alleviate this issue, we propose
Mask Matching Transformer (MM-Former), a new paradigm for the few-shot
segmentation task. Specifically, MM-Former first uses a class-agnostic
segmenter to decompose the query image into multiple segment proposals. Then, a
simple matching mechanism is applied to merge the related segment proposals
into the final mask guided by the support images. The advantages of our
MM-Former are two-fold. First, the MM-Former follows the paradigm of decompose
first and then blend, allowing our method to benefit from the advanced
potential objects segmenter to produce high-quality mask proposals for query
images. Second, the mission of prototypical features is relaxed to learn
coefficients to fuse correct ones within a proposal pool, making the MM-Former
be well generalized to complex scenarios or cases. We conduct extensive
experiments on the popular COCO-$20^i$ and Pascal-$5^i$ benchmarks. Competitive
results well demonstrate the effectiveness and the generalization ability of
our MM-Former.
- Abstract(参考訳): 本稿では,新たな視点から,難解なマイナショットセグメンテーション課題に取り組むことを目的とする。
典型的な手法は、まずサポート画像からプロトタイプの特徴を学習し、次にピクセルレベルのクエリ特徴にマッチしてセグメンテーション結果を得るというパラダイムに従う。
しかし、十分なセグメントを得るには、マッチング操作の学習を重セグメンテーションモジュールと組み合わせ、設計の柔軟性を制限し、学習の複雑さを増大させる必要がある。
この問題を軽減するために,数発のセグメンテーションタスクのための新しいパラダイムであるMask Matching Transformer (MM-Former)を提案する。
具体的には、mm-formerはクラスに依存しないセグメンタを使用してクエリイメージを複数のセグメントプロポーザルに分割する。
次に、関連するセグメント提案をサポート画像に案内された最終マスクにマージする簡易マッチング機構を適用する。
MM-Formerの利点は2つあります。
まず、MM-Formerは、まず分解し、次にブレンドするというパラダイムに従って、高度な潜在的なオブジェクトセグメンタの利点を享受し、クエリー画像のための高品質なマスク提案を生成する。
第二に、原型的特徴のミッションは、提案プール内で正しい特徴を融合させる係数を学ぶために緩和され、MM-Formerは複雑なシナリオやケースによく一般化される。
一般的なCOCO-$20^i$とPascal-$5^i$ベンチマークについて広範な実験を行った。
MM-Formerの有効性と一般化能力を比較検討した。
関連論文リスト
- MaskUno: Switch-Split Block For Enhancing Instance Segmentation [0.0]
マスク予測を洗練されたROIを処理し、それらを分類し、特定のマスク予測者に割り当てるスイッチスプリットブロックに置き換えることを提案する。
平均平均精度(mAP)が2.03%上昇し,80クラスにおいて高い成績を示した。
論文 参考訳(メタデータ) (2024-07-31T10:12:14Z) - Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Deep Gaussian Processes for Few-Shot Segmentation [66.08463078545306]
少数ショットのセグメンテーションは難しい作業であり、いくつかの注釈付きサンプルから一般化可能な表現を抽出する必要がある。
ガウス過程(GP)回帰に基づく数ショット学習者定式化を提案する。
PASCAL-5i と COCO-20i では mIoU スコアが68.1 と 49.8 である。
論文 参考訳(メタデータ) (2021-03-30T17:56:32Z) - Proposal-Free Volumetric Instance Segmentation from Latent
Single-Instance Masks [16.217524435617744]
この研究は、新しいプロポーザルフリーなインスタンスセグメンテーション手法を導入している。
画像全体で予測されるシングルインスタンスセグメンテーションマスクをスライディングウィンドウスタイルで構築する。
関連するアプローチとは対照的に,本手法では,各画素毎に1つのマスクを同時に予測し,画像全体のコンフリクトを解消する。
論文 参考訳(メタデータ) (2020-09-10T17:09:23Z) - Prototype Mixture Models for Few-shot Semantic Segmentation [50.866870384596446]
サポートやクエリ画像内のオブジェクトが外観やポーズで大きく異なる可能性があるため、ショットのセグメンテーションは難しい。
プロトタイプベースセマンティック表現を強制するために,多種多様な画像領域と複数のプロトタイプとの相関関係を持つプロトタイプ混合モデル(PMMs)を提案する。
PMMはMS-COCOの5ショットセグメンテーション性能を最大5.82%改善し、モデルサイズと推論速度の適度なコストに留まった。
論文 参考訳(メタデータ) (2020-08-10T04:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。