論文の概要: LapFM: A Laparoscopic Segmentation Foundation Model via Hierarchical Concept Evolving Pre-training
- arxiv url: http://arxiv.org/abs/2512.08439v1
- Date: Tue, 09 Dec 2025 10:09:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.909674
- Title: LapFM: A Laparoscopic Segmentation Foundation Model via Hierarchical Concept Evolving Pre-training
- Title(参考訳): LapFM: 事前トレーニングに伴う階層的概念による腹腔鏡下セグメンテーション基礎モデル
- Authors: Qing Xu, Kun Yuan, Yuxiang Luo, Yuhao Zhai, Wenting Duan, Nassir Navab, Zhen Chen,
- Abstract要約: ラプFM(LapFM)は、大規模な未ラベルの手術画像から、堅牢なセグメンテーション能力を進化させるために設計された基礎モデルである。
本稿では,階層的一貫性に基づいて疑似ラベルを反復的に生成・フィルタリングする信頼駆動進化ラベルを提案する。
このプロセスは114Kのイメージマスク対からなる大規模ベンチマークであるLapBench-114Kを生成する。
- 参考スコア(独自算出の注目度): 39.51756689308245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surgical segmentation is pivotal for scene understanding yet remains hindered by annotation scarcity and semantic inconsistency across diverse procedures. Existing approaches typically fine-tune natural foundation models (e.g., SAM) with limited supervision, functioning merely as domain adapters rather than surgical foundation models. Consequently, they struggle to generalize across the vast variability of surgical targets. To bridge this gap, we present LapFM, a foundation model designed to evolve robust segmentation capabilities from massive unlabeled surgical images. Distinct from medical foundation models relying on inefficient self-supervised proxy tasks, LapFM leverages a Hierarchical Concept Evolving Pre-training paradigm. First, we establish a Laparoscopic Concept Hierarchy (LCH) via a hierarchical mask decoder with parent-child query embeddings, unifying diverse entities (i.e., Anatomy, Tissue, and Instrument) into a scalable knowledge structure with cross-granularity semantic consistency. Second, we propose a Confidence-driven Evolving Labeling that iteratively generates and filters pseudo-labels based on hierarchical consistency, progressively incorporating reliable samples from unlabeled images into training. This process yields LapBench-114K, a large-scale benchmark comprising 114K image-mask pairs. Extensive experiments demonstrate that LapFM significantly outperforms state-of-the-art methods, establishing new standards for granularity-adaptive generalization in universal laparoscopic segmentation. The source code is available at https://github.com/xq141839/LapFM.
- Abstract(参考訳): 外科的セグメンテーションはシーン理解において重要であるが、アノテーションの不足と様々な手順における意味的不整合によって妨げられている。
既存のアプローチでは、外科的基礎モデルではなくドメインアダプタとしてのみ機能する、監督の限定されたファインチューンな基盤モデル(SAMなど)が一般的である。
結果として、彼らは外科的標的の広範囲な変動を一般化するのに苦労した。
このギャップを埋めるために、大規模な未ラベルの手術画像から堅牢なセグメンテーション能力を進化させる基盤モデルであるLapFMを提案する。
LapFMは、非効率な自己監督型プロキシタスクに依存する医療基盤モデルとは違い、階層的概念進化型事前トレーニングパラダイムを活用している。
まず,階層型マスクデコーダを用いた階層型マスクデコーダを用いてLCH(Laparoscopic Concept Hierarchy)を構築し,多種多様なエンティティ(解剖学,組織学,計器学)を粒度間のセマンティック一貫性を持ったスケーラブルな知識構造に統一する。
第2に、階層的一貫性に基づいて擬似ラベルを反復的に生成・フィルタリングし、未ラベル画像からの信頼性サンプルを段階的に学習に組み込む信頼駆動進化ラベルを提案する。
このプロセスは114Kのイメージマスク対からなる大規模ベンチマークであるLapBench-114Kを生成する。
広汎な実験により、LapFMは最先端の手法を著しく上回り、普遍的な腹腔鏡のセグメンテーションにおける粒度適応的一般化のための新しい標準を確立した。
ソースコードはhttps://github.com/xq141839/LapFMで入手できる。
関連論文リスト
- Diffusion Model in Latent Space for Medical Image Segmentation Task [0.0]
MedSegLatDiffは、変動オートエンコーダ(VAE)と遅延拡散モデルを組み合わせた拡散ベースのフレームワークで、効率的な医用画像分割を行う。
芸術または非常に競争の激しいDiceとIoUのスコアの状態を達成し、同時に多様なセグメンテーション仮説と信頼マップを生成する。
論文 参考訳(メタデータ) (2025-12-01T05:26:43Z) - Moving Beyond Diffusion: Hierarchy-to-Hierarchy Autoregression for fMRI-to-Image Reconstruction [65.67001243986981]
我々は,スケールワイド自己回帰モデルに基づく粗大なfMRI画像再構成フレームワークであるMindHierを提案する。
MindHierは、拡散ベースのベースラインよりも優れたセマンティック忠実さ、4.67倍高速な推論、より決定論的結果を達成する。
論文 参考訳(メタデータ) (2025-10-25T15:40:07Z) - UniSegDiff: Boosting Unified Lesion Segmentation via a Staged Diffusion Model [53.34835793648352]
病変分割のための新しい拡散モデルフレームワークUniSegDiffを提案する。
UniSegDiffは、複数のモダリティと臓器にまたがる統一された方法で病変のセグメンテーションに対処する。
総合的な実験結果から、UniSegDiffは従来のSOTA(State-of-the-art)アプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-07-24T12:33:10Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - DiffAtlas: GenAI-fying Atlas Segmentation via Image-Mask Diffusion [47.43502676919903]
DiffAtlasは、トレーニング中の拡散を通じて画像とマスクの両方をモデル化する新しい生成フレームワークである。
テスト中、モデルはガイドされ、特定のターゲット画像マスク対を生成し、そこから対応するマスクを得る。
提案手法は既存の手法,特に限定データとゼロショットのモダリティのセグメンテーションにおいて優れる。
論文 参考訳(メタデータ) (2025-03-09T20:06:40Z) - KA$^2$ER: Knowledge Adaptive Amalgamation of ExpeRts for Medical Images Segmentation [5.807887214293438]
本稿では,多元的基礎モデルを学習し,複数のエキスパートモデルの協調的な目標に対処することを目的としたアダプティブ・アマルガメーション・ナレッジ・フレームワークを提案する。
特に、まず、各タスクに対してnnUNetベースのエキスパートモデルをトレーニングし、トレーニング済みのSwinUNTERをターゲット基盤モデルとして再利用する。
隠蔽層内の階層的アテンション機構は、すべての専門家の隠蔽層の特徴知識にターゲットモデルの適応的なマージを実現するように設計されている。
論文 参考訳(メタデータ) (2024-10-28T14:49:17Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。