論文の概要: One Polyp Identifies All: One-Shot Polyp Segmentation with SAM via Cascaded Priors and Iterative Prompt Evolution
- arxiv url: http://arxiv.org/abs/2507.16337v1
- Date: Tue, 22 Jul 2025 08:19:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.026089
- Title: One Polyp Identifies All: One-Shot Polyp Segmentation with SAM via Cascaded Priors and Iterative Prompt Evolution
- Title(参考訳): One Polyp Identified All: One-Shot Polyp Segmentation with SAM via Cascaded Priors and Iterative Prompt Evolution
- Authors: Xinyu Mao, Xiaohan Xing, Fei Meng, Jianbang Liu, Fan Bai, Qiang Nie, Max Meng,
- Abstract要約: 本稿では,1つの注釈付き画像からプロンプトを自動的に生成する,SAMに基づくワンショットポリープセグメンテーションフレームワークOP-SAMを提案する。
本手法では,意味的ラベル伝達のための相関ベース事前生成(CPG)と,ポリプサイズに適応するためのスケールカスケード事前融合(SPF)を導入する。
- 参考スコア(独自算出の注目度): 11.042138550601795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Polyp segmentation is vital for early colorectal cancer detection, yet traditional fully supervised methods struggle with morphological variability and domain shifts, requiring frequent retraining. Additionally, reliance on large-scale annotations is a major bottleneck due to the time-consuming and error-prone nature of polyp boundary labeling. Recently, vision foundation models like Segment Anything Model (SAM) have demonstrated strong generalizability and fine-grained boundary detection with sparse prompts, effectively addressing key polyp segmentation challenges. However, SAM's prompt-dependent nature limits automation in medical applications, since manually inputting prompts for each image is labor-intensive and time-consuming. We propose OP-SAM, a One-shot Polyp segmentation framework based on SAM that automatically generates prompts from a single annotated image, ensuring accurate and generalizable segmentation without additional annotation burdens. Our method introduces Correlation-based Prior Generation (CPG) for semantic label transfer and Scale-cascaded Prior Fusion (SPF) to adapt to polyp size variations as well as filter out noisy transfers. Instead of dumping all prompts at once, we devise Euclidean Prompt Evolution (EPE) for iterative prompt refinement, progressively enhancing segmentation quality. Extensive evaluations across five datasets validate OP-SAM's effectiveness. Notably, on Kvasir, it achieves 76.93% IoU, surpassing the state-of-the-art by 11.44%.
- Abstract(参考訳): ポリープセグメンテーションは早期大腸癌の検出には不可欠であるが、従来の完全教師付き手法は形態学的変異とドメインシフトに苦慮し、頻繁な再訓練を必要としている。
さらに、大規模なアノテーションへの依存は、ポリプバウンダリラベリングの時間的およびエラーを起こしやすい性質のため、大きなボトルネックとなっている。
近年、Segment Anything Model (SAM) のような視覚基盤モデルでは、スパースプロンプトによる強い一般化性ときめ細かな境界検出が示されており、キーポリープセグメンテーションの課題に効果的に対処している。
しかしSAMの即時的な性質は、各画像に手動でプロンプトを入力することで、医療アプリケーションにおける自動化を制限している。
本稿では,1つの注釈付き画像からプロンプトを自動的に生成し,付加的なアノテーション負担を伴わずに精度よく一般化可能なセグメンテーションを実現する,SAMに基づくワンショットポリープセグメンテーションフレームワークOP-SAMを提案する。
本手法では,意味的ラベル伝達のための相関ベース事前生成(CPG)と,ポリプサイズの変化に対応するためにスケールカスケード事前融合(SPF)を導入し,ノイズ伝達をフィルタリングする。
すべてのプロンプトを一度にダンプする代わりに、反復的なプロンプト改善のためにユークリッド・プロンプト・エボリューション(EPE)を考案し、セグメンテーションの品質を徐々に向上させます。
5つのデータセットにわたる大規模な評価は、OP-SAMの有効性を検証する。
特にKvasirでは76.93%のIoUを達成し、最先端のIoUを11.44%上回っている。
関連論文リスト
- Mamba Guided Boundary Prior Matters: A New Perspective for Generalized Polyp Segmentation [3.075778955462259]
大腸癌の早期発見と診断には大腸内視鏡像のポリープ分画が重要である。
本稿では,ロバストなポリープセグメンテーションのための画期的なアプローチであるSAM-MaGuPを提案する。
SAM(Segment Anything Model)に境界蒸留モジュールと1D-2Dマンバアダプタを組み込むことで、SAM-MaGuPは弱い境界問題の解決に優れる。
我々の重要な革新、マンバ誘導境界と1D-2Dマンバブロックは、フィールドに新しいベンチマークを設定し、ポリープセグメンテーションの境界を新しい高さに押し上げた。
論文 参考訳(メタデータ) (2025-07-02T09:16:58Z) - BiSeg-SAM: Weakly-Supervised Post-Processing Framework for Boosting Binary Segmentation in Segment Anything Models [6.74659948545092]
BiSeg-SAMは、ポリープと皮膚病変の分節のための弱い制御されたプロンプトと境界の精製ネットワークである。
本手法は5つのポリプデータセットと1つの皮膚がんデータセットでテストした場合, 最先端(SOTA)法よりも有意な優位性を示した。
論文 参考訳(メタデータ) (2025-04-02T08:04:37Z) - Polyp-SES: Automatic Polyp Segmentation with Self-Enriched Semantic Model [7.424888086388194]
本稿では,既存手法の制約に対処するため,自己富化セマンティックモデルを用いたAutomatic Polypを提案する。
まず、入力画像から一連の特徴を抽出し、ハイレベルな特徴をデコードし、初期セグメンテーションマスクを生成する。
提案する自己富化セマンティックモジュールを用いて,潜在的なセマンティクスを検索し,さらにセマンティクスを付加することで,コンテキスト理解のモデルを支援する。
論文 参考訳(メタデータ) (2024-10-02T03:34:23Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - PP-SAM: Perturbed Prompts for Robust Adaptation of Segment Anything Model for Polyp Segmentation [6.659798925130387]
本稿では,ポリプ分割タスクに限定的な画像で適応できる頑健な微調整手法PP-SAMを提案する。
ポリプセグメンテーションベンチマーク実験により, 可変BBP摂動がモデルレジリエンスを著しく改善することが明らかとなった。
以上の結果から, PP-SAMの他の医用画像処理への応用は限定的であった。
論文 参考訳(メタデータ) (2024-05-27T01:13:01Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - BoxPolyp:Boost Generalized Polyp Segmentation Using Extra Coarse
Bounding Box Annotations [79.17754846553866]
我々は、正確なマスクと余分な粗いボックスアノテーションをフル活用するための強化されたBoxPolypモデルを提案する。
実際には、従来のポリプセグメンテーションモデルの過度に適合する問題を緩和するためにボックスアノテーションが適用される。
提案手法は従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-12-07T07:45:50Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。