論文の概要: Training-Free Instance Segmentation from Semantic Image Segmentation
Masks
- arxiv url: http://arxiv.org/abs/2308.00949v1
- Date: Wed, 2 Aug 2023 05:13:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 13:48:29.410423
- Title: Training-Free Instance Segmentation from Semantic Image Segmentation
Masks
- Title(参考訳): 意味的画像セグメンテーションマスクからのトレーニングフリーインスタンスセグメンテーション
- Authors: Yuchen Shen, Dong Zhang, Yuhui Zheng, Zechao Li, Liyong Fu, Qiaolin Ye
- Abstract要約: トレーニング不要なインスタンスセグメンテーション(TFISeg)は、オフザシェルフセグメンテーションモデルを用いて予測されたイメージマスクからインスタンスセグメンテーション結果を得る。
TFISegはセマンティックまたはインスタンスセグメンテーションモデルをトレーニングする必要がなく、インスタンスレベルのイメージアノテーションを必要としない。
- 参考スコア(独自算出の注目度): 34.68015946291557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the development of instance segmentation has garnered
significant attention in a wide range of applications. However, the training of
a fully-supervised instance segmentation model requires costly both
instance-level and pixel-level annotations. In contrast, weakly-supervised
instance segmentation methods (i.e., with image-level class labels or point
labels) struggle to satisfy the accuracy and recall requirements of practical
scenarios. In this paper, we propose a novel paradigm for instance segmentation
called training-free instance segmentation (TFISeg), which achieves instance
segmentation results from image masks predicted using off-the-shelf semantic
segmentation models. TFISeg does not require training a semantic or/and
instance segmentation model and avoids the need for instance-level image
annotations. Therefore, it is highly efficient. Specifically, we first obtain a
semantic segmentation mask of the input image via a trained semantic
segmentation model. Then, we calculate a displacement field vector for each
pixel based on the segmentation mask, which can indicate representations
belonging to the same class but different instances, i.e., obtaining the
instance-level object information. Finally, instance segmentation results are
obtained after being refined by a learnable category-agnostic object boundary
branch. Extensive experimental results on two challenging datasets and
representative semantic segmentation baselines (including CNNs and
Transformers) demonstrate that TFISeg can achieve competitive results compared
to the state-of-the-art fully-supervised instance segmentation methods without
the need for additional human resources or increased computational costs. The
code is available at: TFISeg
- Abstract(参考訳): 近年、インスタンスセグメンテーションの発展は、広範囲のアプリケーションにおいて大きな注目を集めている。
しかし、完全に教師付きインスタンスセグメンテーションモデルのトレーニングには、インスタンスレベルのアノテーションとピクセルレベルのアノテーションの両方が必要となる。
対照的に、弱教師付きインスタンスセグメンテーション手法(画像レベルのクラスラベルやポイントラベルなど)は、現実シナリオの正確性とリコール要件を満たすのに苦労する。
本稿では,本論文で提案する,既成意味セグメンテーションモデルを用いて予測される画像マスクからのインスタンスセグメンテーション結果を実現する,トレーニングフリーインスタンスセグメンテーション (tfiseg) と呼ばれる新しいインスタンスセグメンテーションパラダイムを提案する。
TFISegはセマンティックまたはインスタンスセグメンテーションモデルをトレーニングする必要がなく、インスタンスレベルのイメージアノテーションを必要としない。
したがって、非常に効率的である。
具体的には、まず、訓練された意味セグメンテーションモデルを用いて、入力画像の意味セグメンテーションマスクを得る。
次に, 分割マスクに基づいて各画素の変位場ベクトルを算出し, 同一のクラスに属するが, 異なるインスタンスに属する表現, すなわち, インスタンスレベルのオブジェクト情報を得る。
最後に、学習可能なカテゴリ非依存オブジェクト境界分岐により、インスタンス分割結果が得られる。
2つの挑戦的データセットと代表的セマンティックセグメンテーションベースライン(CNNやTransformersを含む)の広範な実験結果から、TFISegは、人的資源の追加や計算コストの増大を必要とせず、最先端の完全に管理されたインスタンスセグメンテーション手法と比較して、競争的な結果が得られることが示されている。
コードは tfiseg で利用可能です。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - SIM: Semantic-aware Instance Mask Generation for Box-Supervised Instance
Segmentation [22.930296667684125]
本稿では,セマンティック・アウェア・インスタンス・マスク(SIM)生成パラダイムを開発することによって,新しいボックス管理型インスタンス・セグメンテーション手法を提案する。
セマンティック・アウェア・プロトタイプは,同じセマンティクスの異なるインスタンスを区別できないことを考慮し,自己補正機構を提案する。
実験結果から,提案手法が他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-14T05:59:25Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples [34.97652735163338]
本稿では,各オブジェクトに対するセマンティックセグメンテーションマスク作成のための新しいアプローチを提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として扱う。
このステージの出力は、教師付きメソッドが必要とする手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
論文 参考訳(メタデータ) (2021-12-06T17:32:38Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Learning Panoptic Segmentation from Instance Contours [9.347742071428918]
Panopticpixel は、背景 (stuff) とオブジェクト (things) のインスタンスをピクセルレベルで理解することを目的としている。
セマンティックセグメンテーション(レベル分類)とインスタンスセグメンテーションの別々のタスクを組み合わせて、単一の統合されたシーン理解タスクを構築する。
セマンティックセグメンテーションとインスタンス輪郭からインスタンスセグメンテーションを学習する完全畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-16T03:05:48Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。