論文の概要: Towards Single Stage Weakly Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2106.10309v1
- Date: Fri, 18 Jun 2021 18:34:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:59:33.369237
- Title: Towards Single Stage Weakly Supervised Semantic Segmentation
- Title(参考訳): 単一段階の弱教師付きセマンティックセグメンテーションに向けて
- Authors: Peri Akiva and Kristin Dana
- Abstract要約: 弱教師付きセマンティックセグメンテーションへのシングルステージアプローチを提案する。
ポイントアノテーションを使用して、オンザフライで信頼性の高い擬似マスクを生成します。
我々は、最近の実世界のデータセットにおいて、他のSOTA WSSS手法よりも大幅に優れています。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The costly process of obtaining semantic segmentation labels has driven
research towards weakly supervised semantic segmentation (WSSS) methods, using
only image-level, point, or box labels. The lack of dense scene representation
requires methods to increase complexity to obtain additional semantic
information about the scene, often done through multiple stages of training and
refinement. Current state-of-the-art (SOTA) models leverage image-level labels
to produce class activation maps (CAMs) which go through multiple stages of
refinement before they are thresholded to make pseudo-masks for supervision.
The multi-stage approach is computationally expensive, and dependency on
image-level labels for CAMs generation lacks generalizability to more complex
scenes. In contrary, our method offers a single-stage approach generalizable to
arbitrary dataset, that is trainable from scratch, without any dependency on
pre-trained backbones, classification, or separate refinement tasks. We utilize
point annotations to generate reliable, on-the-fly pseudo-masks through refined
and filtered features. While our method requires point annotations that are
only slightly more expensive than image-level annotations, we are to
demonstrate SOTA performance on benchmark datasets (PascalVOC 2012), as well as
significantly outperform other SOTA WSSS methods on recent real-world datasets
(CRAID, CityPersons, IAD).
- Abstract(参考訳): セマンティックセグメンテーションラベルを得るためのコストのかかるプロセスは、画像レベル、ポイント、ボックスラベルのみを使用して、wsss(weakly supervised semantic segmentation)メソッドへと研究を進めた。
濃密なシーン表現の欠如は、シーンに関する追加的な意味情報を得るための複雑さを増大させる方法を必要とする。
現在のsota(state-of-the-art)モデルは、イメージレベルラベルを利用してクラスアクティベーションマップ(cams)を作成し、監視のために擬似マスクを作成するためにしきい値が設定される前に、複数の改良段階を経る。
マルチステージアプローチは計算コストが高く、CAM生成のためのイメージレベルラベルへの依存は、より複雑なシーンへの一般化性に欠ける。
それとは対照的に,本手法は任意のデータセットに一般化可能な単一段階のアプローチを提供し,事前訓練されたバックボーンや分類,あるいは別個の精細化タスクに依存することなく,スクラッチからトレーニングすることができる。
我々はポイントアノテーションを利用して、洗練された機能やフィルタリング機能を通じて、信頼性の高い擬似マスクを生成する。
提案手法は画像レベルのアノテーションよりもわずかに高額なポイントアノテーションを必要とするが,ベンチマークデータセット(PascalVOC 2012)ではSOTAのパフォーマンスを示すとともに,最近の実世界のデータセット(CRAID,CityPersons,IAD)では,他のSOTA WSSSメソッドよりも大幅に優れていた。
関連論文リスト
- Towards Granularity-adjusted Pixel-level Semantic Annotation [26.91350707156658]
GranSAMは、手作業による監督を必要とせずに、ラベルのないデータに対して、ユーザ定義の粒度レベルでセマンティックセグメンテーションを提供する。
安定拡散モデルやWebクローリング画像によって生成された合成画像から意味情報を蓄積する。
PASCAL VOC 2012とCOCO-80データセットの実験を行い、mIoUの+17.95%と+5.17%の増加を観測した。
論文 参考訳(メタデータ) (2023-12-05T01:37:18Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Segment Anything Model (SAM) Enhanced Pseudo Labels for Weakly
Supervised Semantic Segmentation [30.812323329239614]
弱教師付きセマンティックセマンティックセグメンテーション(WSSS)は、画像レベルのアノテーションのみを使用することで、精細なピクセルレベルのアノテーションの必要性を回避することを目的としている。
既存のほとんどのメソッドは、ピクセルレベルの擬似ラベルを導出するためにクラスアクティベーションマップ(CAM)に依存している。
オブジェクト,部品,サブパートのきめ細かいインスタンスマスクを生成できるクラスに依存しない基礎モデルであるSegment Anything Model (SAM) を利用した,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-05-09T23:24:09Z) - Multi-Granularity Denoising and Bidirectional Alignment for Weakly
Supervised Semantic Segmentation [75.32213865436442]
本稿では,雑音ラベルと多クラス一般化問題を緩和するために,MDBAモデルを提案する。
MDBAモデルはPASCAL VOC 2012データセットの検証とテストセットにおいて69.5%と70.2%のmIoUに達することができる。
論文 参考訳(メタデータ) (2023-05-09T03:33:43Z) - Pointly-Supervised Panoptic Segmentation [106.68888377104886]
弱教師付き単眼セグメンテーションにポイントレベルのアノテーションを適用するための新しい手法を提案する。
完全に教師された方法で使用される高密度のピクセルレベルラベルの代わりに、ポイントレベルラベルは、監督対象ごとに単一のポイントしか提供しない。
我々は、ポイントレベルのラベルから同時に汎視的擬似マスクを生成し、それらから学習することで、エンドツーエンドのフレームワークにおける問題を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:03:51Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。