論文の概要: ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction
- arxiv url: http://arxiv.org/abs/2507.15803v1
- Date: Mon, 21 Jul 2025 17:02:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.499027
- Title: ConformalSAM: Unlocking the Potential of Foundational Segmentation Models in Semi-Supervised Semantic Segmentation with Conformal Prediction
- Title(参考訳): ConformalSAM:コンフォーマル予測による半監督セマンティックセマンティックセマンティックセマンティックセマンティックセマンティックセマンティックモデルの可能性の解錠
- Authors: Danhui Chen, Ziquan Liu, Chuxi Yang, Dan Wang, Yan Yan, Yi Xu, Xiangyang Ji,
- Abstract要約: 本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
ConformalSAMは,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,ラベルなしデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークである。
- 参考スコア(独自算出の注目度): 57.930531826380836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pixel-level vision tasks, such as semantic segmentation, require extensive and high-quality annotated data, which is costly to obtain. Semi-supervised semantic segmentation (SSSS) has emerged as a solution to alleviate the labeling burden by leveraging both labeled and unlabeled data through self-training techniques. Meanwhile, the advent of foundational segmentation models pre-trained on massive data, has shown the potential to generalize across domains effectively. This work explores whether a foundational segmentation model can address label scarcity in the pixel-level vision task as an annotator for unlabeled images. Specifically, we investigate the efficacy of using SEEM, a Segment Anything Model (SAM) variant fine-tuned for textual input, to generate predictive masks for unlabeled data. To address the shortcomings of using SEEM-generated masks as supervision, we propose ConformalSAM, a novel SSSS framework which first calibrates the foundation model using the target domain's labeled data and then filters out unreliable pixel labels of unlabeled data so that only high-confidence labels are used as supervision. By leveraging conformal prediction (CP) to adapt foundation models to target data through uncertainty calibration, ConformalSAM exploits the strong capability of the foundational segmentation model reliably which benefits the early-stage learning, while a subsequent self-reliance training strategy mitigates overfitting to SEEM-generated masks in the later training stage. Our experiment demonstrates that, on three standard benchmarks of SSSS, ConformalSAM achieves superior performance compared to recent SSSS methods and helps boost the performance of those methods as a plug-in.
- Abstract(参考訳): セマンティックセグメンテーションのようなピクセルレベルの視覚タスクは、広範囲で高品質なアノテートデータを必要とする。
半教師付きセマンティックセグメンテーション(SSSS)は、ラベル付きデータとラベルなしデータの両方を自己学習技術で活用することによりラベル付け負担を軽減するソリューションとして登場した。
一方、大量のデータに基づいて事前訓練された基礎セグメンテーションモデルの出現は、ドメイン間を効果的に一般化する可能性を示している。
本研究は,未ラベル画像のアノテータとして画素レベルの視覚課題におけるラベル不足に,基礎的セグメンテーションモデルが対処できるかどうかを考察する。
具体的には,テキスト入力に微調整されたSegment Anything Model (SAM) のSEEMを用いて,ラベルのないデータに対して予測マスクを生成する方法について検討する。
本報告では,SEEMマスクを監視用として使用する際の問題点を解決するために,まず対象ドメインのラベル付きデータを用いて基礎モデルを校正し,信頼度の高いラベルのみを監督するために,ラベル付きデータの信頼できないピクセルラベルをフィルタリングする新しいSSSSフレームワークであるConformalSAMを提案する。
コンフォーマルSAMは、コンフォーマル予測(CP)を利用して、不確実な校正によって基礎モデルをターゲットデータに適応させることにより、初期学習の恩恵を受ける基礎セグメンテーションモデルの強みを確実に活用する一方、その後の自己信頼トレーニング戦略は、後のトレーニング段階でSEEM生成マスクへの過度な適合を緩和する。
実験により, SSSSの標準ベンチマークを3回行った結果, ConformalSAMは最近のSSSS法と比較して優れた性能を示し, プラグインとしての性能向上に寄与した。
関連論文リスト
- Segment Concealed Objects with Incomplete Supervision [63.637733655439334]
不完全なスーパービジョン・コンセサイテッド・オブジェクト(ISCOS)は、周囲の環境にシームレスにブレンドするオブジェクトを分割する。
このタスクは、不完全な注釈付きトレーニングデータによって提供される限られた監督のため、非常に難しいままである。
本稿では,これらの課題に対処するためのISCOSの統一手法について紹介する。
論文 参考訳(メタデータ) (2025-06-10T16:25:15Z) - S^4M: Boosting Semi-Supervised Instance Segmentation with SAM [25.94737539065708]
半教師付きインスタンスセグメンテーションは、ラベル付きデータに制限があるため、課題を引き起こす。
現在の教師中心のフレームワークは、信頼性の低い擬似ラベルの品質のため、パフォーマンス上の制約に悩まされている。
論文 参考訳(メタデータ) (2025-04-07T17:59:10Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - SAM-Driven Weakly Supervised Nodule Segmentation with Uncertainty-Aware Cross Teaching [13.5553526185399]
自動結節分割は超音波画像におけるコンピュータ支援診断に不可欠である。
近年、SAMのようなセグメンテーション基礎モデルは、自然画像に顕著な一般化性を示している。
本研究では, セグメンテーション基盤モデルを利用して擬似ラベルを生成する, 弱教師付きフレームワークを考案する。
論文 参考訳(メタデータ) (2024-07-18T14:27:54Z) - CAFS: Class Adaptive Framework for Semi-Supervised Semantic Segmentation [5.484296906525601]
半教師付きセマンティックセグメンテーションは、いくつかのラベル付きサンプルと多数のラベルなし画像を使用して、ピクセルを特定のクラスに分類するモデルを学ぶ。
半教師付きセマンティックセグメンテーション(CAFS)のためのクラス適応型セミスーパービジョンフレームワークを提案する。
CAFSはラベル付きデータセットに検証セットを構築し、各クラスの校正性能を活用する。
論文 参考訳(メタデータ) (2023-03-21T05:56:53Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。