論文の概要: ST-SAM: SAM-Driven Self-Training Framework for Semi-Supervised Camouflaged Object Detection
- arxiv url: http://arxiv.org/abs/2507.23307v1
- Date: Thu, 31 Jul 2025 07:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.224236
- Title: ST-SAM: SAM-Driven Self-Training Framework for Semi-Supervised Camouflaged Object Detection
- Title(参考訳): ST-SAM:セミスーパービジョンのカモフラージュオブジェクト検出のためのSAM駆動自己学習フレームワーク
- Authors: Xihang Hu, Fuming Sun, Jiazhe Liu, Feilong Xu, Xiaoli Zhang,
- Abstract要約: 半教師付きCamouflaged Object Detection (SSCOD) は、高価なピクセルレベルのアノテーションへの依存を減らすことを目的としている。
既存のSSCOD法では, 厳密な予測バイアスと誤差伝播に悩まされている。
アノテーション効率が高いが簡潔なフレームワークST-SAMを提案する。
- 参考スコア(独自算出の注目度): 14.06736878203419
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised Camouflaged Object Detection (SSCOD) aims to reduce reliance on costly pixel-level annotations by leveraging limited annotated data and abundant unlabeled data. However, existing SSCOD methods based on Teacher-Student frameworks suffer from severe prediction bias and error propagation under scarce supervision, while their multi-network architectures incur high computational overhead and limited scalability. To overcome these limitations, we propose ST-SAM, a highly annotation-efficient yet concise framework that breaks away from conventional SSCOD constraints. Specifically, ST-SAM employs Self-Training strategy that dynamically filters and expands high-confidence pseudo-labels to enhance a single-model architecture, thereby fundamentally circumventing inter-model prediction bias. Furthermore, by transforming pseudo-labels into hybrid prompts containing domain-specific knowledge, ST-SAM effectively harnesses the Segment Anything Model's potential for specialized tasks to mitigate error accumulation in self-training. Experiments on COD benchmark datasets demonstrate that ST-SAM achieves state-of-the-art performance with only 1\% labeled data, outperforming existing SSCOD methods and even matching fully supervised methods. Remarkably, ST-SAM requires training only a single network, without relying on specific models or loss functions. This work establishes a new paradigm for annotation-efficient SSCOD. Codes will be available at https://github.com/hu-xh/ST-SAM.
- Abstract(参考訳): 半教師付きCamouflaged Object Detection (SSCOD) は、限られた注釈付きデータと豊富なラベルなしデータを活用することで、コストの高いピクセルレベルのアノテーションへの依存を減らすことを目的としている。
しかし、教師-学生フレームワークに基づく既存のSSCOD手法は、教師の監督下において重大な予測バイアスとエラーの伝播に悩まされ、マルチネットワークアーキテクチャは高い計算オーバーヘッドと限られたスケーラビリティをもたらす。
これらの制約を克服するために,従来のSSCOD制約から切り離された,高アノテーション効率で簡潔なフレームワークST-SAMを提案する。
特にST-SAMでは,高信頼度擬似ラベルを動的にフィルタリング・拡張して単一モデルアーキテクチャを強化し,モデル間予測バイアスを根本的に回避する自己評価方式を採用している。
さらに、擬似ラベルをドメイン固有の知識を含むハイブリッドプロンプトに変換することで、ST-SAMは、Segment Anything Modelのポテンシャルを利用して、自己学習におけるエラー蓄積を軽減する。
CODベンチマークデータセットの実験では、ST-SAMは1\%のラベル付きデータで最先端のパフォーマンスを実現しており、既存のSSCODメソッドよりも優れており、完全に教師されたメソッドとのマッチングさえ可能である。
注目すべきは、ST-SAMは特定のモデルや損失関数に頼ることなく、単一のネットワークのみをトレーニングする必要があることだ。
この研究は、アノテーション効率の良いSSCODの新しいパラダイムを確立する。
コードはhttps://github.com/hu-xh/ST-SAMで入手できる。
関連論文リスト
- ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction [57.930531826380836]
本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
ConformalSAMは,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,ラベルなしデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T17:02:57Z) - Segment Concealed Objects with Incomplete Supervision [63.637733655439334]
不完全なスーパービジョン・コンセサイテッド・オブジェクト(ISCOS)は、周囲の環境にシームレスにブレンドするオブジェクトを分割する。
このタスクは、不完全な注釈付きトレーニングデータによって提供される限られた監督のため、非常に難しいままである。
本稿では,これらの課題に対処するためのISCOSの統一手法について紹介する。
論文 参考訳(メタデータ) (2025-06-10T16:25:15Z) - S^4M: Boosting Semi-Supervised Instance Segmentation with SAM [25.94737539065708]
半教師付きインスタンスセグメンテーションは、ラベル付きデータに制限があるため、課題を引き起こす。
現在の教師中心のフレームワークは、信頼性の低い擬似ラベルの品質のため、パフォーマンス上の制約に悩まされている。
論文 参考訳(メタデータ) (2025-04-07T17:59:10Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Agnostic Sharpness-Aware Minimization [29.641227264358704]
シャープネス認識(SAM)は、トレーニング損失とロスランドスケープのシャープネスを最小化することにより、ディープニューラルネットワークトレーニングの改善に役立っている。
Model-Agnostic Meta-Learning (MAML)は、モデルの適応性を改善するために設計されたフレームワークである。
我々はSAMとMAMLの両方の原則を組み合わせた新しいアプローチであるAgnostic-SAMを紹介する。
論文 参考訳(メタデータ) (2024-06-11T09:49:00Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Learning Self-Supervised Low-Rank Network for Single-Stage Weakly and
Semi-Supervised Semantic Segmentation [119.009033745244]
本稿では,単一段階弱教師付きセマンティックセマンティックセマンティックセマンティクス(WSSS)と半教師付きセマンティクスセマンティクスセマンティクス(SSSS)のための自己教師付き低ランクネットワーク(SLRNet)を提案する。
SLRNetは、画像の異なるビューから複数の注意深いLR表現を同時に予測し、正確な擬似ラベルを学習する。
Pascal VOC 2012、COCO、L2IDデータセットの実験では、SLRNetは最先端のWSSSメソッドとSSSSメソッドの両方で、さまざまな設定で優れています。
論文 参考訳(メタデータ) (2022-03-19T09:19:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。