論文の概要: Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples
- arxiv url: http://arxiv.org/abs/2112.03185v1
- Date: Mon, 6 Dec 2021 17:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:10:55.079116
- Title: Semantic Segmentation In-the-Wild Without Seeing Any Segmentation
Examples
- Title(参考訳): セグメンテーションの例をまったく見ない意味的セグメンテーション
- Authors: Nir Zabari, Yedid Hoshen
- Abstract要約: 本稿では,各オブジェクトに対するセマンティックセグメンテーションマスク作成のための新しいアプローチを提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として扱う。
このステージの出力は、教師付きメソッドが必要とする手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
- 参考スコア(独自算出の注目度): 34.97652735163338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation is a key computer vision task that has been actively
researched for decades. In recent years, supervised methods have reached
unprecedented accuracy, however they require many pixel-level annotations for
every new class category which is very time-consuming and expensive.
Additionally, the ability of current semantic segmentation networks to handle a
large number of categories is limited. That means that images containing rare
class categories are unlikely to be well segmented by current methods. In this
paper we propose a novel approach for creating semantic segmentation masks for
every object, without the need for training segmentation networks or seeing any
segmentation masks. Our method takes as input the image-level labels of the
class categories present in the image; they can be obtained automatically or
manually. We utilize a vision-language embedding model (specifically CLIP) to
create a rough segmentation map for each class, using model interpretability
methods. We refine the maps using a test-time augmentation technique. The
output of this stage provides pixel-level pseudo-labels, instead of the manual
pixel-level labels required by supervised methods. Given the pseudo-labels, we
utilize single-image segmentation techniques to obtain high-quality output
segmentation masks. Our method is shown quantitatively and qualitatively to
outperform methods that use a similar amount of supervision. Our results are
particularly remarkable for images containing rare categories.
- Abstract(参考訳): セマンティックセグメンテーションは、数十年にわたって活発に研究されてきた重要なコンピュータビジョンタスクである。
近年、教師付きメソッドは前例のない精度に達しているが、新しいクラスカテゴリごとに多くのピクセルレベルのアノテーションを必要とする。
さらに、現在のセマンティックセグメンテーションネットワークが多数のカテゴリを扱う能力は限られている。
つまり、希少なクラス分類を含む画像は、現在の方法では十分にセグメント化されない。
本稿では,セグメンテーションネットワークのトレーニングやセグメンテーションマスクの閲覧を必要とせず,各対象に対して意味的セグメンテーションマスクを作成する新しい手法を提案する。
本手法は,画像に含まれるクラスカテゴリのイメージレベルラベルを入力として,自動または手動で取得できる。
視覚言語埋め込みモデル(特にクリップ)を用いて,モデル解釈手法を用いて各クラスに対するラフセグメンテーションマップを作成する。
テスト時間拡張手法を用いて地図を精査する。
このステージの出力は、教師付きメソッドが要求する手動のピクセルレベルラベルの代わりに、ピクセルレベルの擬似ラベルを提供する。
擬似ラベルを考慮に入れ,高品質な出力セグメンテーションマスクを得るために単一画像セグメンテーション技術を利用する。
本手法は, 同様の量の監視を行う方法に対して, 定量的かつ質的に示す。
その結果,稀なカテゴリを含む画像では特に顕著である。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Synthetic Instance Segmentation from Semantic Image Segmentation Masks [15.477053085267404]
我々は、Synthetic Instance(SISeg)と呼ばれる新しいパラダイムを提案する。
SISegインスタンスセグメンテーションの結果は、既存のセマンティックセグメンテーションモデルによって生成されたイメージマスクを活用する。
言い換えれば、提案モデルは余分な人力や高い計算コストを必要としない。
論文 参考訳(メタデータ) (2023-08-02T05:13:02Z) - Iterative Few-shot Semantic Segmentation from Image Label Text [36.53926941601841]
ほとんどショットのセマンティックセマンティックセマンティクスは、いくつかのサポートイメージのガイダンスで、目に見えないクラスオブジェクトのセマンティクスを学ぶことを目的としている。
本稿では、強力な視覚言語モデルCLIPの助けを借りて、粗いマスクを生成するための一般的なフレームワークを提案する。
本手法は,野生および珍しいクラスの画像に対して,優れた一般化能力を有する。
論文 参考訳(メタデータ) (2023-03-10T01:48:14Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - PCAMs: Weakly Supervised Semantic Segmentation Using Point Supervision [12.284208932393073]
本稿では,ある点レベルのアノテーションが与えられた画像から意味的セグメンテーションを生成する新しい手法を提案する。
提案するCNNは,通常,地上の真理ラベルの代わりに擬似ラベルを用いて完全に教師される。
提案手法は,PASCAL VOC 2012 データセットを引用した PASCAL VOC 2012 のセマンティックセマンティックセマンティフィケーションのための技術結果の状態を達成し,より強いバウンディングボックスやリスグル管理のための技術手法よりも優れていた。
論文 参考訳(メタデータ) (2020-07-10T21:25:27Z) - Discovering Latent Classes for Semi-Supervised Semantic Segmentation [18.5909667833129]
本稿では,半教師付きセマンティックセグメンテーションの問題について検討する。
ラベル付き画像のセマンティッククラスと一致した潜在クラスを学習する。
提案手法は,半教師付きセマンティックセグメンテーションのための技術結果の状態を達成している。
論文 参考訳(メタデータ) (2019-12-30T14:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。