論文の概要: SmooSeg: Smoothness Prior for Unsupervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2310.17874v1
- Date: Fri, 27 Oct 2023 03:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 14:57:38.910774
- Title: SmooSeg: Smoothness Prior for Unsupervised Semantic Segmentation
- Title(参考訳): SmooSeg: 教師なしセマンティックセグメンテーションに先立つ滑らかさ
- Authors: Mengcheng Lan, Xinjiang Wang, Yiping Ke, Jiaxing Xu, Litong Feng,
Wayne Zhang
- Abstract要約: 教師なしセマンティックセグメンテーションは、手動のアノテーションなしでイメージをセマンティックグループに分割する難しいタスクである。
本研究では,SmooSegという手法を提案する。SmooSegは,観察中の近接性関係をスムーズな信号としてモデル化する自己教師付き学習手法である。
SmooSegは3つのデータセットのピクセル精度でSTEGOを著しく上回っている。
- 参考スコア(独自算出の注目度): 27.367986520072147
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised semantic segmentation is a challenging task that segments images
into semantic groups without manual annotation. Prior works have primarily
focused on leveraging prior knowledge of semantic consistency or priori
concepts from self-supervised learning methods, which often overlook the
coherence property of image segments. In this paper, we demonstrate that the
smoothness prior, asserting that close features in a metric space share the
same semantics, can significantly simplify segmentation by casting unsupervised
semantic segmentation as an energy minimization problem. Under this paradigm,
we propose a novel approach called SmooSeg that harnesses self-supervised
learning methods to model the closeness relationships among observations as
smoothness signals. To effectively discover coherent semantic segments, we
introduce a novel smoothness loss that promotes piecewise smoothness within
segments while preserving discontinuities across different segments.
Additionally, to further enhance segmentation quality, we design an asymmetric
teacher-student style predictor that generates smoothly updated pseudo labels,
facilitating an optimal fit between observations and labeling outputs. Thanks
to the rich supervision cues of the smoothness prior, our SmooSeg significantly
outperforms STEGO in terms of pixel accuracy on three datasets: COCOStuff
(+14.9%), Cityscapes (+13.0%), and Potsdam-3 (+5.7%).
- Abstract(参考訳): 教師なしセマンティクスセグメンテーションは、手動のアノテーションなしでイメージをセマンティクスグループに分割する難しいタスクである。
先行研究は主に、イメージセグメントのコヒーレンス性を見落としている自己教師付き学習手法から、セマンティック一貫性や事前概念の事前知識を活用することに焦点を当ててきた。
本稿では,距離空間の閉特徴が同じ意味論を共有することによるスムーズさが,教師なしセマンティックセグメンテーションをエネルギー最小化問題としてキャストすることにより,セグメンテーションを著しく単純化できることを実証する。
本パラダイムでは,SmooSegと呼ばれる,観察間の近接性関係を滑らか性信号としてモデル化する自己教師付き学習手法を提案する。
そこで本研究では,セグメント間の不連続性を維持しつつ,セグメント内のセグメント間平滑性を促進する新しい平滑性損失を提案する。
さらに,セグメンテーション品質をさらに高めるため,不対称な教師・学生スタイル予測器の設計を行い,スムースに更新された擬似ラベルを生成し,観察とラベリングアウトプットの最適適合を容易にする。
SmooSegはスムーズさの豊富な監視方法のおかげで、COCOStuff(+14.9%)、Cityscapes(+13.0%)、Potsdam-3(+5.7%)の3つのデータセットの画素精度において、STEGOを著しく上回っている。
関連論文リスト
- SemSim: Revisiting Weak-to-Strong Consistency from a Semantic Similarity Perspective for Semi-supervised Medical Image Segmentation [18.223854197580145]
医用画像分割のための半教師付き学習(SSL)は難しいが、非常に実践的な課題である。
セムシム(SemSim)という名前のFixMatchに基づく新しいフレームワークを提案する。
SemSimは3つの公開セグメンテーションベンチマークで最先端の手法よりも一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-17T12:31:37Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Scribble Hides Class: Promoting Scribble-Based Weakly-Supervised
Semantic Segmentation with Its Class Label [16.745019028033518]
画像レベルのクラスから情報を得たスクリブルアノテーションと擬似ラベルと、監督のためのグローバルセマンティクスの両方を利用するクラス駆動型スクリブルプロモーションネットワークを提案する。
スクリブルアノテーションの異なる性質を持つScribbleSupデータセットの実験は、従来の手法よりも優れており、本手法の優位性と堅牢性を示している。
論文 参考訳(メタデータ) (2024-02-27T14:51:56Z) - MetaSeg: Content-Aware Meta-Net for Omni-Supervised Semantic
Segmentation [17.59676962334776]
弱いオブジェクトレベルのアノテーションから生成された擬似セグメンテーションラベルに必然的に存在するノイズラベル。
メタラーニングの最近の進歩に触発されて、クリーンラベルの背後に隠されたノイズを受動的に許容するのに苦労するのではなく、より実用的な解決策は、ノイズの多い領域を積極的に見つけることである、と私たちは主張する。
本稿では,任意のセグメンテーションモデルに対応するノイズインジケータとして,CAM-Netを主成分とするメタ学習に基づくセグメンテーション手法MetaSegを提案する。
論文 参考訳(メタデータ) (2024-01-22T07:31:52Z) - Semi-supervised Semantic Segmentation Meets Masked Modeling:Fine-grained
Locality Learning Matters in Consistency Regularization [31.333862320143968]
半教師付きセマンティックセグメンテーションはラベル付き画像と豊富なラベル付き画像を利用してラベル効率の高い学習を実現することを目的としている。
我々は,より詳細な局所性学習により,より高密度なセグメンテーションを実現する,textttMaskMatchという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T03:28:53Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - A Survey on Label-efficient Deep Segmentation: Bridging the Gap between
Weak Supervision and Dense Prediction [115.9169213834476]
本稿では,ラベル効率の高いセグメンテーション手法について概説する。
まず,様々な種類の弱いラベルによって提供される監督に従って,これらの手法を整理する分類法を開発する。
次に,既存のラベル効率のセグメンテーション手法を統一的な視点から要約する。
論文 参考訳(メタデータ) (2022-07-04T06:21:01Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。