論文の概要: Atlas is Your Perfect Context: One-Shot Customization for Generalizable Foundational Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2512.18176v1
- Date: Sat, 20 Dec 2025 02:29:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.216055
- Title: Atlas is Your Perfect Context: One-Shot Customization for Generalizable Foundational Medical Image Segmentation
- Title(参考訳): Atlasはあなたの完全なコンテキスト: 汎用的な基礎医療画像セグメンテーションのためのワンショットカスタマイズ
- Authors: Ziyu Zhang, Yi Yu, Simeng Zhu, Ahmed Aly, Yunhe Gao, Ning Gu, Yuan Xue,
- Abstract要約: 我々はAtlasSegFMについて紹介する。AtlasSegFMは、利用可能な基礎モデルを単一の注釈付き例で臨床コンテキストにカスタマイズするフレームワークである。
中心となるイノベーションは、1)コンテキストアトラスとクエリイメージ間の登録による基礎モデルのコンテキスト認識プロンプトを提供するパイプライン、2)基盤モデルとアトラス登録の両方から予測を融合させるテスト時アダプタである。
- 参考スコア(独自算出の注目度): 23.172777028390215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate medical image segmentation is essential for clinical diagnosis and treatment planning. While recent interactive foundation models (e.g., nnInteractive) enhance generalization through large-scale multimodal pretraining, they still depend on precise prompts and often perform below expectations in contexts that are underrepresented in their training data. We present AtlasSegFM, an atlas-guided framework that customizes available foundation models to clinical contexts with a single annotated example. The core innovations are: 1) a pipeline that provides context-aware prompts for foundation models via registration between a context atlas and query images, and 2) a test-time adapter to fuse predictions from both atlas registration and the foundation model. Extensive experiments across public and in-house datasets spanning multiple modalities and organs demonstrate that AtlasSegFM consistently improves segmentation, particularly for small, delicate structures. AtlasSegFM provides a lightweight, deployable solution one-shot customization of foundation models in real-world clinical workflows. The code will be made publicly available.
- Abstract(参考訳): 正確な医用画像分割は臨床診断と治療計画に不可欠である。
最近の対話的基礎モデル(例えば、nnInteractive)は、大規模なマルチモーダル事前訓練を通じて一般化を促進するが、それらは依然として正確なプロンプトに依存しており、トレーニングデータで表現されていないコンテキストにおいて期待以下に実行されることが多い。
我々はAtlasSegFMについて紹介する。AtlasSegFMは、利用可能な基礎モデルを単一の注釈付き例で臨床コンテキストにカスタマイズするフレームワークである。
中心となるイノベーションは次のとおりです。
1)コンテキストアトラスとクエリイメージの登録による基礎モデルのコンテキスト認識プロンプトを提供するパイプライン
2) アトラス登録と基礎モデルの両方から予測を融合させるテストタイムアダプタ。
複数のモダリティと臓器にまたがるパブリックデータセットと社内データセットにわたる大規模な実験は、AtlasSegFMが、特に小さくて繊細な構造において、セグメンテーションを一貫して改善していることを示している。
AtlasSegFMは、軽量でデプロイ可能なソリューションで、実際の臨床ワークフローにおける基礎モデルのワンショットカスタマイズを提供する。
コードは公開されます。
関連論文リスト
- AutoMiSeg: Automatic Medical Image Segmentation via Test-Time Adaptation of Foundation Models [11.00876772668728]
本稿では,視覚言語とセグメンテーション基礎モデルを組み合わせたゼロショット自動セグメンテーションパイプラインを提案する。
我々のパイプラインは7つの多様な医用画像データセットに基づいて評価され、有望な結果を示す。
論文 参考訳(メタデータ) (2025-05-23T14:07:21Z) - MedicoSAM: Towards foundation models for medical image segmentation [2.6579756198224347]
大規模で多様なデータセット上の様々な微調整戦略を比較することにより、医療画像のセグメンテーションを改善する方法を示す。
対話型セグメンテーションでは,性能が向上することが確認できた。
私たちのベストモデルであるMedicoSAMはhttps://github.com/computational-cell-analytics/medico-sam.comで公開されています。
論文 参考訳(メタデータ) (2025-01-20T20:40:28Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - Continual atlas-based segmentation of prostate MRI [2.17257168063257]
自然な画像分類のために設計された連続学習(CL)法は、しばしば基本的な品質基準に達しない。
我々は,プロトタイプを用いて高品質なセグメンテーションマスクを生成するアトラスベースのセグメンテーション手法であるAtlas Replayを提案する。
我々の結果は、Atlas Replayは堅牢であり、知識を維持しながら、まだ見つからない領域に対してうまく一般化していることを示している。
論文 参考訳(メタデータ) (2023-11-01T14:29:46Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Diffusion Models for Open-Vocabulary Segmentation [79.02153797465324]
OVDiffは、教師なしオープン語彙セグメンテーションに生成テキストから画像への拡散モデルを利用する新しい手法である。
トレーニング済みのコンポーネントのみに依存し、トレーニングなしで合成セグメンタを直接出力する。
論文 参考訳(メタデータ) (2023-06-15T17:51:28Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。