論文の概要: Boosting Weakly-Supervised Image Segmentation via Representation,
Transform, and Compensator
- arxiv url: http://arxiv.org/abs/2309.00871v1
- Date: Sat, 2 Sep 2023 09:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 00:35:34.428307
- Title: Boosting Weakly-Supervised Image Segmentation via Representation,
Transform, and Compensator
- Title(参考訳): 表現、変換、補償による弱教師付き画像分割の促進
- Authors: Chunyan Wang, Dong Zhang, Rui Yan
- Abstract要約: 既存のWSISアプローチでは多段階の訓練手順が広く使われており、質の高い擬似マスクを基礎として取得している。
そこで本研究では,Symese ネットワークとコントラスト学習を用いて,クラスアクティベーションマップ(CAM)の品質を向上し,自己補充プロセスを実現するための,新しいワンステージ WSIS 手法を提案する。
PASCAL VOC 2012データセットでは67.2%と68.76%のmIoUを達成した。
- 参考スコア(独自算出の注目度): 26.991314511807907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly-supervised image segmentation (WSIS) is a critical task in computer
vision that relies on image-level class labels. Multi-stage training procedures
have been widely used in existing WSIS approaches to obtain high-quality
pseudo-masks as ground-truth, resulting in significant progress. However,
single-stage WSIS methods have recently gained attention due to their potential
for simplifying training procedures, despite often suffering from low-quality
pseudo-masks that limit their practical applications. To address this issue, we
propose a novel single-stage WSIS method that utilizes a siamese network with
contrastive learning to improve the quality of class activation maps (CAMs) and
achieve a self-refinement process. Our approach employs a cross-representation
refinement method that expands reliable object regions by utilizing different
feature representations from the backbone. Additionally, we introduce a
cross-transform regularization module that learns robust class prototypes for
contrastive learning and captures global context information to feed back rough
CAMs, thereby improving the quality of CAMs. Our final high-quality CAMs are
used as pseudo-masks to supervise the segmentation result. Experimental results
on the PASCAL VOC 2012 dataset demonstrate that our method significantly
outperforms other state-of-the-art methods, achieving 67.2% and 68.76% mIoU on
PASCAL VOC 2012 val set and test set, respectively. Furthermore, our method has
been extended to weakly supervised object localization task, and experimental
results demonstrate that our method continues to achieve very competitive
results.
- Abstract(参考訳): 弱教師付きイメージセグメンテーション(WSIS)は、画像レベルのクラスラベルに依存するコンピュータビジョンにおいて重要なタスクである。
既存のWSISアプローチでは、多段階の訓練手順が広く使われており、質の高い擬似マスクを基礎として得られ、大きな進歩をもたらした。
しかし、ワンステージのWSIS手法は、実用性を制限する低品質の擬似マスクに悩まされているにもかかわらず、訓練手順を簡素化する可能性から近年注目を集めている。
そこで本研究では,Symese ネットワークとコントラスト学習を併用して,クラスアクティベーションマップ(CAM)の品質向上と自己修復プロセスを実現する,新たなワンステージ WSIS 手法を提案する。
提案手法では,異なる特徴表現をバックボーンから利用することにより,信頼性の高いオブジェクト領域を拡張できる。
さらに、コントラスト学習のための頑健なクラスプロトタイプを学習し、グローバルコンテキスト情報をキャプチャして粗いCAMをフィードバックするクロストランスフォーメーション正規化モジュールを導入し、CAMの品質を向上させる。
最終的な高品質CAMは、セグメント化結果を監督するために擬似マスクとして使用される。
PASCAL VOC 2012データセットの実験結果から,本手法は,PASCAL VOC 2012 valセットとテストセットにおいて,67.2%,68.76% mIoUをそれぞれ達成し,他の最先端手法よりも有意に優れていた。
さらに,本手法は弱教師付きオブジェクトローカライゼーションタスクに拡張され,実験結果から,本手法が競争力のある結果を得ることを示す。
関連論文リスト
- Semantic Refocused Tuning for Open-Vocabulary Panoptic Segmentation [42.020470627552136]
Open-vocabulary Panoptic segmentationは、イメージを意味のあるマスクに正確に分割することを目的とした、新たなタスクである。
マスク分類は、オープンボキャブ・パノプティクスのセグメンテーションにおける主要なパフォーマンスボトルネックである。
オープンボキャブ・パノプティクスのセグメンテーションを大幅に強化する新しいフレームワークであるセマンティック・リフォーカス・タニングを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:50:28Z) - Incremental Object Detection with CLIP [36.478530086163744]
そこで本研究では,CLIPなどの視覚言語モデルを用いて,異なるクラス集合に対するテキスト特徴埋め込みを生成する。
次に、段階的なシナリオをシミュレートするために、早期の学習段階において利用できない新しいクラスを置き換えるために、スーパークラスを使用します。
そこで我々は,この微妙に認識された検出ボックスを擬似アノテーションとしてトレーニングプロセスに組み込むことにより,検出性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-10-13T01:59:39Z) - Localized Region Contrast for Enhancing Self-Supervised Learning in
Medical Image Segmentation [27.82940072548603]
本稿では,地域コントラスト(LRC)を統合した新しいコントラスト学習フレームワークを提案する。
提案手法では,Felzenszwalbのアルゴリズムによるスーパーピクセルの同定と,新しいコントラッシブサンプリング損失を用いた局所コントラスト学習を行う。
論文 参考訳(メタデータ) (2023-04-06T22:43:13Z) - Multi-Level Contrastive Learning for Dense Prediction Task [59.591755258395594]
本稿では,高密度予測タスクのための領域レベルの特徴表現を効率よく学習するための,MCL(Multi-Level Contrastive Learning for Dense Prediction Task)を提案する。
本手法は, 局所化, スケールの整合性, 認識の3つの要因に動機付けられている。
提案手法は,様々なデータセットにおける最近の最先端の手法よりも有意なマージンを有する。
論文 参考訳(メタデータ) (2023-04-04T17:59:04Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Spatially Consistent Representation Learning [12.120041613482558]
本研究では,空間的に一貫した表現学習アルゴリズム(SCRL)を提案する。
ランダムに切り抜かれた局所領域のコヒーレントな空間表現を作ろうとする新しい自己教師付き目的を考案する。
ベンチマークデータセットを用いた下流のローカライゼーションタスクでは、提案したSCRLは大幅な性能改善を示す。
論文 参考訳(メタデータ) (2021-03-10T15:23:45Z) - Self-supervised Equivariant Attention Mechanism for Weakly Supervised
Semantic Segmentation [93.83369981759996]
本稿では,自己監督同変注意機構(SEAM)を提案する。
本手法は,完全教師付きセマンティックセグメンテーションにおいて,同値が暗黙の制約であることを示す。
本稿では,ネットワーク学習のための自己スーパービジョンを提供するために,様々な変換画像から予測されたCAMの整合性正則化を提案する。
論文 参考訳(メタデータ) (2020-04-09T14:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。