論文の概要: Atlas-Assisted Segment Anything Model for Fetal Brain MRI (FeTal-SAM)
- arxiv url: http://arxiv.org/abs/2601.15759v1
- Date: Thu, 22 Jan 2026 08:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.546398
- Title: Atlas-Assisted Segment Anything Model for Fetal Brain MRI (FeTal-SAM)
- Title(参考訳): 胎児脳MRI(FeTal-SAM)におけるAtlas-Assisted Segment Anything Model
- Authors: Qi Zeng, Weide Liu, Bo Li, Ryne Didier, P. Ellen Grant, Davood Karimi,
- Abstract要約: FeTal-SAMは胎児脳MRIのセグメンテーションに適したSegment Anything Model(SAM)の新規な適応である。
atlasベースのプロンプトと基礎モデル原則を統合することで、FeTal-SAMは胎児脳MRIのセグメンテーションにおける2つの重要な制限に対処する。
- 参考スコア(独自算出の注目度): 14.57158980216096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents FeTal-SAM, a novel adaptation of the Segment Anything Model (SAM) tailored for fetal brain MRI segmentation. Traditional deep learning methods often require large annotated datasets for a fixed set of labels, making them inflexible when clinical or research needs change. By integrating atlas-based prompts and foundation-model principles, FeTal-SAM addresses two key limitations in fetal brain MRI segmentation: (1) the need to retrain models for varying label definitions, and (2) the lack of insight into whether segmentations are driven by genuine image contrast or by learned spatial priors. We leverage multi-atlas registration to generate spatially aligned label templates that serve as dense prompts, alongside a bounding-box prompt, for SAM's segmentation decoder. This strategy enables binary segmentation on a per-structure basis, which is subsequently fused to reconstruct the full 3D segmentation volumes. Evaluations on two datasets, the dHCP dataset and an in-house dataset demonstrate FeTal-SAM's robust performance across gestational ages. Notably, it achieves Dice scores comparable to state-of-the-art baselines which were trained for each dataset and label definition for well-contrasted structures like cortical plate and cerebellum, while maintaining the flexibility to segment any user-specified anatomy. Although slightly lower accuracy is observed for subtle, low-contrast structures (e.g., hippocampus, amygdala), our results highlight FeTal-SAM's potential to serve as a general-purpose segmentation model without exhaustive retraining. This method thus constitutes a promising step toward clinically adaptable fetal brain MRI analysis tools.
- Abstract(参考訳): 本稿では胎児脳MRIのセグメント化に適したSegment Anything Model(SAM)の新規適応であるFeTal-SAMについて述べる。
従来のディープラーニング手法では、固定されたラベルセットに対して大きなアノテートデータセットを必要とすることが多く、臨床や研究が変化する必要がある場合、そのデータセットは非フレキシブルである。
アトラスに基づくプロンプトと基礎モデル原理を統合することにより、FeTal-SAMは胎児脳MRIのセグメンテーションにおける2つの重要な限界に対処する。
我々は、SAMのセグメンテーションデコーダのためのバウンディングボックスプロンプトとともに、密集したプロンプトとして機能する空間整列ラベルテンプレートを生成するために、マルチアトラス登録を利用する。
この戦略により、構造毎のバイナリセグメンテーションが可能となり、3Dセグメンテーションボリューム全体を再構築する。
2つのデータセット、dHCPデータセットと社内データセットの評価は、FeTal-SAMの妊娠期の堅牢なパフォーマンスを示している。
特に、Diceスコアは、各データセットのためにトレーニングされた最先端のベースラインと同等であり、皮質プレートや小脳といったよく対比された構造に対するラベル定義であると同時に、ユーザ特定解剖学のセグメンテーションの柔軟性を維持している。
微妙な低コントラスト構造(例,海馬,扁桃体)では若干精度が低いが,FeTal-SAMが総括的再トレーニングなしに汎用セグメンテーションモデルとして機能する可能性が示唆された。
この方法は、臨床応用可能な胎児脳MRI解析ツールに向けた有望なステップを構成する。
関連論文リスト
- VesSAM: Efficient Multi-Prompting for Segmenting Complex Vessel [68.24765319399286]
本稿では,2次元血管セグメンテーションに適した,強力で効率的なフレームワークであるVesSAMを提案する。
VesSAMは、(1)局所的なテクスチャ機能を強化する畳み込みアダプタ、(2)解剖学的プロンプトを融合するマルチプロンプトエンコーダ、(3)ジャグアーティファクトを減らす軽量マスクデコーダを統合する。
VesSAMは、最先端のPEFTベースのSAMを10%以上のDiceと13%のIoUで一貫して上回っている。
論文 参考訳(メタデータ) (2025-11-02T15:47:05Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Segmentation by registration-enabled SAM prompt engineering using five reference images [40.58383603965483]
SAMを用いた医用画像セグメンテーションのための新規な登録ベースプロンプトエンジニアリングフレームワークを提案する。
分割ラベルを必要とせずに,確立された画像登録アルゴリズムを用いて,新しい画像(分割)と少数の参照画像の整列を行う。
この戦略は、定義されたポイントプロンプトを持つ5つまでの参照イメージを必要とするため、セグメンテーションラベルを必要とせずに、実質的にSAMに新しいイメージの推論を促せる。
論文 参考訳(メタデータ) (2024-07-25T10:46:29Z) - Cross Prompting Consistency with Segment Anything Model for Semi-supervised Medical Image Segmentation [44.54301473673582]
半教師付き学習(SSL)は,医用画像のセグメンテーションにおいて顕著な進歩を遂げている。
SAM(Segment Anything Model)のような視覚基盤モデルの最近の発展は、顕著な適応性を示している。
半教師型医用画像分割のためのセグメンテーションモデル(CPC-SAM)を用いたクロスプロンプト整合性手法を提案する。
論文 参考訳(メタデータ) (2024-07-07T15:43:20Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。