論文の概要: DHR: Dual Features-Driven Hierarchical Rebalancing in Inter- and Intra-Class Regions for Weakly-Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2404.00380v2
- Date: Sun, 19 May 2024 14:27:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 22:50:58.266749
- Title: DHR: Dual Features-Driven Hierarchical Rebalancing in Inter- and Intra-Class Regions for Weakly-Supervised Semantic Segmentation
- Title(参考訳): DHR:弱スーパービジョンセマンティックセマンティックセグメンテーションのためのクラス間およびクラス間領域におけるデュアル特徴駆動階層的リバランシング
- Authors: Sanghyun Jo, Fei Pan, In-Jae Yu, Kyungsu Kim,
- Abstract要約: 弱教師付きセマンティックセマンティックセマンティクス(WSS)は、限られたデータによる高品質セマンティクスを保証する。
WSSは、隣接する複数のクラスを持つイメージで見過ごされているため、マイナークラスに関連する課題に直面します。
まず、従来の手法ではなく、教師なしで弱い教師付き特徴写像を用いてこの問題に対処する。
- 参考スコア(独自算出の注目度): 7.545489807578403
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weakly-supervised semantic segmentation (WSS) ensures high-quality segmentation with limited data and excels when employed as input seed masks for large-scale vision models such as Segment Anything. However, WSS faces challenges related to minor classes since those are overlooked in images with adjacent multiple classes, a limitation originating from the overfitting of traditional expansion methods like Random Walk. We first address this by employing unsupervised and weakly-supervised feature maps instead of conventional methodologies, allowing for hierarchical mask enhancement. This method distinctly categorizes higher-level classes and subsequently separates their associated lower-level classes, ensuring all classes are correctly restored in the mask without losing minor ones. Our approach, validated through extensive experimentation, significantly improves WSS across five benchmarks (VOC: 79.8\%, COCO: 53.9\%, Context: 49.0\%, ADE: 32.9\%, Stuff: 37.4\%), reducing the gap with fully supervised methods by over 84\% on the VOC validation set. Code is available at https://github.com/shjo-april/DHR.
- Abstract(参考訳): 弱教師付きセマンティックセグメンテーション(WSS)は、Segment Anythingのような大規模ビジョンモデルのための入力シードマスクとして使用される場合、限られたデータで高品質なセグメンテーションを保証する。
しかし、WSSは、Random Walkのような従来の拡張メソッドのオーバーフィットに由来する制限として、隣接する複数のクラスを持つイメージで見過ごされているため、マイナークラスに関連する課題に直面します。
まず、従来の手法の代わりに教師なし・弱教師付き特徴写像を用いて、階層的なマスク強化を実現する。
この方法は明らかに上位クラスを分類し、その後、関連する下位クラスを分離し、すべてのクラスが下位クラスを失うことなくマスクで正しく復元されるようにする。
我々のアプローチは、広範な実験を通じて検証され、5つのベンチマーク(VOC: 79.8\%、COCO: 53.9\%、コンテキスト: 49.0\%、ADE: 32.9\%、Stuff: 37.4\%)でWSSを大幅に改善し、完全な教師付きメソッドとのギャップを、VOC検証セット上で84\%以上削減する。
コードはhttps://github.com/shjo-april/DHR.comで入手できる。
関連論文リスト
- TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - The Devil is in the Points: Weakly Semi-Supervised Instance Segmentation
via Point-Guided Mask Representation [61.027468209465354]
本稿では,ポイントラベル付き弱半教師付きインスタンスセグメンテーション(WSSIS)という新しい学習手法を提案する。
本稿では、予算に優しいポイントラベルを強力な弱監督源として効果的に活用できるWSSISの手法を提案する。
我々はCOCOとBDD100Kデータセットの広範な実験を行い、提案手法は完全な教師付きモデルのデータセットに匹敵する有望な結果を得る。
論文 参考訳(メタデータ) (2023-03-27T10:11:22Z) - Foundation Model Drives Weakly Incremental Learning for Semantic
Segmentation [12.362400851574872]
セマンティックセグメンテーション(WILSS)のための弱い漸進的な学習は、新しく魅力的なタスクである。
本稿では,WILSS のための新しいデータ効率フレームワーク FMWISS を提案する。
論文 参考訳(メタデータ) (2023-02-28T02:21:42Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。