論文の概要: Learning Accurate Segmentation Purely from Self-Supervision
- arxiv url: http://arxiv.org/abs/2602.23759v1
- Date: Fri, 27 Feb 2026 07:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.301889
- Title: Learning Accurate Segmentation Purely from Self-Supervision
- Title(参考訳): 自己スーパービジョンから純粋に正確なセグメンテーションを学習する
- Authors: Zuyao You, Zuxuan Wu, Yu-Gang Jiang,
- Abstract要約: Selfmentは完全に自己管理型のフレームワークで、人間のラベルなしでオブジェクトを生画像から直接分割する。
Selfmentは、複数のベンチマークで新しい最先端(SoTA)結果を設定する。
- 参考スコア(独自算出の注目度): 87.78965637247107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately segmenting objects without any manual annotations remains one of the core challenges in computer vision. In this work, we introduce Selfment, a fully self-supervised framework that segments foreground objects directly from raw images without human labels, pretrained segmentation models, or any post-processing. Selfment first constructs patch-level affinity graphs from self-supervised features and applies NCut to obtain an initial coarse foreground--background separation. We then introduce Iterative Patch Optimization (IPO), a feature-space refinement procedure that progressively enforces spatial coherence and semantic consistency through iterative patch clustering. The refined masks are subsequently used as supervisory signals to train a lightweight segmentation head with contrastive and region-consistency objectives, allowing the model to learn stable and transferable object representations. Despite its simplicity and complete absence of manual supervision, Selfment sets new state-of-the-art (SoTA) results across multiple benchmarks. It achieves substantial improvements on $F_{\max}$ over previous unsupervised saliency detection methods on ECSSD ($+4.0\%$), HKUIS ($+4.6\%$), and PASCAL-S ($+5.7\%$). Moreover, without any additional fine-tuning, Selfment demonstrates remarkable zero-shot generalization to camouflaged object detection tasks (e.g., $0.910$ $S_m$ on CHAMELEON and $0.792$ $F_β^ω$ on CAMO), outperforming all existing unsupervised approaches and even rivaling the SoTA fully supervised methods.
- Abstract(参考訳): 手動のアノテーションを使わずにオブジェクトを正確にセグメント化することは、コンピュータビジョンにおける重要な課題の1つだ。
本研究では,人間のラベルや事前訓練されたセグメンテーションモデル,あるいは後処理を使わずに,原画像から直接前景オブジェクトを分割する,完全に自己管理されたフレームワークであるSelfmentを紹介する。
Selfmentはまず、自己教師機能からパッチレベルの親和性グラフを構築し、NCutを適用して初期粗いフォアグラウンドの分離を得る。
次に,反復パッチクラスタリングによる空間コヒーレンスとセマンティック一貫性を段階的に強化する特徴空間改善手法であるイテレーティブパッチ最適化(IPO)を紹介した。
改良されたマスクはその後、コントラストと領域整合性の目標を持つ軽量セグメンテーションヘッドを訓練するために監視信号として使用され、モデルが安定かつ伝達可能なオブジェクト表現を学習できるようにする。
その単純さと手動による監督の欠如にもかかわらず、Selfmentは複数のベンチマークで新しい最先端(SoTA)結果を設定している。
これは、以前のECSSD上の教師なしサリエンシ検出メソッド(+4.0\%$)、HKUIS(+4.6\%$)、PASCAL-S(+5.7\%$)よりも大幅に改善されている。
さらに、追加の微調整なしでは、Selfment は Camouflaged object detection task (例: $0.910$ $S_m$ on CHAMELEON と $0.792$ $F_β^ω$ on CAMO) に対する顕著なゼロショットの一般化を示し、既存のすべての教師なしアプローチを上回り、SoTA の完全教師付き手法にさえ対抗している。
関連論文リスト
- PANC: Prior-Aware Normalized Cut for Object Segmentation [0.0]
本稿では,最小限の注釈付き視覚トークンを用いた弱教師付きスペクトルセグメンテーションフレームワークを提案する。
均質, 細粒, テクスチャ制限ドメインについて, 強い結果を報告した。
マルチオブジェクトベンチマークでは、明示的でユーザ制御可能なセマンティックセマンティックセグメンテーションが紹介されている。
論文 参考訳(メタデータ) (2026-02-06T18:07:20Z) - ZS-VCOS: Zero-Shot Video Camouflaged Object Segmentation By Optical Flow and Open Vocabulary Object Detection [7.457821910654639]
本研究は,SAM-2やOwl-v2といった大規模事前学習モデルと時間的情報をモジュールパイプラインに統合することにより,トレーニングを回避する方法を研究する。
また,F対策を0.476から0.628に増やした。
論文 参考訳(メタデータ) (2025-04-10T06:24:54Z) - DI-MaskDINO: A Joint Object Detection and Instance Segmentation Model [67.56918651825056]
MaskDinoの開始変圧器デコーダ層から中間結果を調べる際に, 物体検出遅延がインスタンスセグメンテーションの遅れ(すなわち, 性能不均衡)の原因となる。
本稿では,DI-MaskDINOモデルを提案する。その中核となる考え方は,検出・セグメンテーションの不均衡を緩和し,最終的な性能を改善することである。
DI-MaskDINOはCOCOとBDD100Kベンチマークで既存のジョイントオブジェクト検出とインスタンスセグメンテーションモデルを上回っている。
論文 参考訳(メタデータ) (2024-10-22T05:22:49Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Unsupervised Semantic Segmentation by Distilling Feature Correspondences [94.73675308961944]
教師なしセマンティックセグメンテーション(unsupervised semantic segmentation)は、アノテーションなしで画像コーパス内の意味論的意味のあるカテゴリを発見し、ローカライズすることを目的としている。
STEGOは、教師なし特徴を高品質な個別のセマンティックラベルに蒸留する新しいフレームワークである。
STEGOは、CocoStuffとCityscapesの両課題において、先行技術よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-16T06:08:47Z) - FreeSOLO: Learning to Segment Objects without Annotations [191.82134817449528]
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-24T16:31:44Z) - Towards Single Stage Weakly Supervised Semantic Segmentation [2.28438857884398]
弱教師付きセマンティックセグメンテーションへのシングルステージアプローチを提案する。
ポイントアノテーションを使用して、オンザフライで信頼性の高い擬似マスクを生成します。
我々は、最近の実世界のデータセットにおいて、他のSOTA WSSS手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-06-18T18:34:50Z) - Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence [14.79639149658596]
本論文では,スクリブルアノテーションによる弱監督オブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
6つのベンチマークで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-12-08T12:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。