論文の概要: Few-shot semantic segmentation via mask aggregation
- arxiv url: http://arxiv.org/abs/2202.07231v1
- Date: Tue, 15 Feb 2022 07:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:58:38.754850
- Title: Few-shot semantic segmentation via mask aggregation
- Title(参考訳): マスクアグリゲーションによる少数ショット意味セグメンテーション
- Authors: Wei Ao, Shunyi Zheng, Yan Meng
- Abstract要約: セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
- 参考スコア(独自算出の注目度): 5.886986014593717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot semantic segmentation aims to recognize novel classes with only very
few labelled data. This challenging task requires mining of the relevant
relationships between the query image and the support images. Previous works
have typically regarded it as a pixel-wise classification problem. Therefore,
various models have been designed to explore the correlation of pixels between
the query image and the support images. However, they focus only on pixel-wise
correspondence and ignore the overall correlation of objects. In this paper, we
introduce a mask-based classification method for addressing this problem. The
mask aggregation network (MANet), which is a simple mask classification model,
is proposed to simultaneously generate a fixed number of masks and their
probabilities of being targets. Then, the final segmentation result is obtained
by aggregating all the masks according to their locations. Experiments on both
the PASCAL-5^i and COCO-20^i datasets show that our method performs comparably
to the state-of-the-art pixel-based methods. This competitive performance
demonstrates the potential of mask classification as an alternative baseline
method in few-shot semantic segmentation. Our source code will be made
available at https://github.com/TinyAway/MANet.
- Abstract(参考訳): セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
この困難なタスクでは、クエリイメージとサポートイメージの関係をマイニングする必要がある。
従来の研究では、ピクセル単位の分類問題と見なされていた。
そのため,クエリ画像とサポート画像との相関関係を検討するために,様々なモデルが設計されている。
しかし、ピクセルワイド対応のみに焦点を合わせ、オブジェクトの全体的な相関を無視する。
本稿では,この問題に対処するためのマスクベース分類手法を提案する。
マスク分類モデルであるマスクアグリゲーションネットワーク(MANet)は,一定数のマスクとターゲットとなる確率を同時に生成するために提案されている。
そして、その位置に応じてすべてのマスクを集約して最終セグメンテーション結果を得る。
PASCAL-5^i と COCO-20^i の2つのデータセットを用いた実験により,本手法は最先端の画素法と同等に動作することが示された。
この競合性能は、少数ショット意味セグメンテーションにおける代替ベースライン方法としてマスク分類の可能性を示す。
ソースコードはhttps://github.com/tinyaway/manetで入手できる。
関連論文リスト
- Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - MixReorg: Cross-Modal Mixed Patch Reorganization is a Good Mask Learner
for Open-World Semantic Segmentation [110.09800389100599]
セマンティックセグメンテーションのための新鮮で簡単な事前学習パラダイムであるMixReorgを提案する。
我々のアプローチは、パッチとテキストの対応を保ちながら、画像パッチを混合することで、きめ細かいパッチテキストペアデータを生成することである。
マスク学習者としてMixReorgを使用することで、従来のテキスト教師付きセマンティックセマンティックセマンティックモデルは、非常に一般化可能なピクセル・セマンティックアライメントを実現することができる。
論文 参考訳(メタデータ) (2023-08-09T09:35:16Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - MaskRange: A Mask-classification Model for Range-view based LiDAR
Segmentation [34.04740351544143]
本研究では,範囲ビューに基づくLiDARセマンティクスとパノプティックセグメンテーションのためのマスク分類モデルMaskRangeを提案する。
我々のMaskRangeは、セマンティックセグメンテーションにおける6.10ドルmIoUの最先端性能と、高い効率でパノプティクスセグメンテーションにおける53.10ドルPQの有望な結果を達成する。
論文 参考訳(メタデータ) (2022-06-24T04:39:49Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - What You See is What You Classify: Black Box Attributions [61.998683569022006]
我々は、トレーニング済みのブラックボックス分類器であるExpplanandumの属性を予測するために、ディープネットワークであるExplainerを訓練する。
既存のほとんどのアプローチとは異なり、我々の手法はクラス固有のマスクを直接生成することができる。
我々の属性は、視覚的および定量的に確立された方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-23T12:30:04Z) - Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples [34.97652735163338]
本稿では,各オブジェクトに対するセマンティックセグメンテーションマスク作成のための新しいアプローチを提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として扱う。
このステージの出力は、教師付きメソッドが必要とする手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
論文 参考訳(メタデータ) (2021-12-06T17:32:38Z) - Masked-attention Mask Transformer for Universal Image Segmentation [180.73009259614494]
Masked-attention Mask Transformer (Mask2Former)は,任意の画像セグメンテーションタスク(パノプティクス,インスタンス,セマンティクス)に対処可能な新しいアーキテクチャである。
主要な構成要素は、予測されたマスク領域内での横断的な注意を制限して、局所的な特徴を抽出するマスクアテンションである。
研究の労力を少なくとも3倍に削減することに加えて、4つの一般的なデータセットにおいて、最高の特殊アーキテクチャよりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-12-02T18:59:58Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。