論文の概要: Opportunistic Promptable Segmentation: Leveraging Routine Radiological Annotations to Guide 3D CT Lesion Segmentation
- arxiv url: http://arxiv.org/abs/2602.00309v1
- Date: Fri, 30 Jan 2026 20:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.110923
- Title: Opportunistic Promptable Segmentation: Leveraging Routine Radiological Annotations to Guide 3D CT Lesion Segmentation
- Title(参考訳): 3次元CT病変の描出にルーチン・ラジオロジカル・アノテーションを応用したオポチュニスティック・プロンプタブル・セグメンテーション
- Authors: Samuel Church, Joshua D. Warner, Danyal Maqbool, Xin Tie, Junjie Hu, Meghan G. Lubner, Tyler J. Bradshaw,
- Abstract要約: 臨床画像アーカイブ・通信システム(PACS)では大量のCT画像と報告が容易に利用可能である
クリティカルな発見の3Dセグメンテーションは、一般的には放射線技師による広範囲な手作業による注釈を必要とする。
スパースアノテーションをCTボリュームの3次元セグメンテーションに変換するために設計された,最初のプロンプト可能なセグメンテーションモデルを提案する。
- 参考スコア(独自算出の注目度): 4.014618722322392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of machine learning models for CT imaging depends on the availability of large, high-quality, and diverse annotated datasets. Although large volumes of CT images and reports are readily available in clinical picture archiving and communication systems (PACS), 3D segmentations of critical findings are costly to obtain, typically requiring extensive manual annotation by radiologists. On the other hand, it is common for radiologists to provide limited annotations of findings during routine reads, such as line measurements and arrows, that are often stored in PACS as GSPS objects. We posit that these sparse annotations can be extracted along with CT volumes and converted into 3D segmentations using promptable segmentation models, a paradigm we term Opportunistic Promptable Segmentation. To enable this paradigm, we propose SAM2CT, the first promptable segmentation model designed to convert radiologist annotations into 3D segmentations in CT volumes. SAM2CT builds upon SAM2 by extending the prompt encoder to support arrow and line inputs and by introducing Memory-Conditioned Memories (MCM), a memory encoding strategy tailored to 3D medical volumes. On public lesion segmentation benchmarks, SAM2CT outperforms existing promptable segmentation models and similarly trained baselines, achieving Dice similarity coefficients of 0.649 for arrow prompts and 0.757 for line prompts. Applying the model to pre-existing GSPS annotations from a clinical PACS (N = 60), SAM2CT generates 3D segmentations that are clinically acceptable or require only minor adjustments in 87% of cases, as scored by radiologists. Additionally, SAM2CT demonstrates strong zero-shot performance on select Emergency Department findings. These results suggest that large-scale mining of historical GSPS annotations represents a promising and scalable approach for generating 3D CT segmentation datasets.
- Abstract(参考訳): CT画像のための機械学習モデルの開発は、大規模で高品質で多様な注釈付きデータセットの可用性に依存している。
臨床画像アーカイビング・コミュニケーションシステム(PACS)では大量のCT画像や報告が容易に手に入るが、重要な発見の3D分割は、一般的には放射線技師による広範な手作業による注釈を必要とする。
一方,放射線学者は,線量測定や矢印などの定期的な読み出しにおいて,GSPSオブジェクトとしてPACSに格納されることが一般的である。
我々は,これらのスパースアノテーションをCTボリュームとともに抽出し,即時セグメンテーションモデルを用いて3次元セグメンテーションに変換することができると仮定する。
このパラダイムを実現するために,ラジオロジカルアノテーションをCTボリュームの3次元セグメンテーションに変換するために設計された,最初のプロンプト可能なセグメンテーションモデルSAM2CTを提案する。
SAM2CTはSAM2上に構築されており、矢印と線入力をサポートするようにプロンプトエンコーダを拡張し、3D医療ボリュームに合わせたメモリ符号化戦略であるメモリコンディションメモリ(MCM)を導入している。
パブリックな病変のセグメンテーションベンチマークでは、SAM2CTは既存のプロンプト可能なセグメンテーションモデルと同様に訓練されたベースラインを上回り、矢印プロンプトのDice類似係数0.649、ラインプロンプトの0.757を達成している。
臨床PACS (N = 60) から既存のGSPSアノテーションにモデルを適用すると、SAM2CTは臨床的に許容される3Dセグメンテーションを生成し、87%の症例で軽微な調整しか必要としない。
さらに、SAM2CTは、特定緊急部署の検査結果に対して、強いゼロショット性能を示す。
これらの結果から,歴史的GSPSアノテーションの大規模マイニングは3次元CTセグメンテーションデータセットの生成に有望かつスケーラブルなアプローチであることが示唆された。
関連論文リスト
- Atlas-Assisted Segment Anything Model for Fetal Brain MRI (FeTal-SAM) [14.57158980216096]
FeTal-SAMは胎児脳MRIのセグメンテーションに適したSegment Anything Model(SAM)の新規な適応である。
atlasベースのプロンプトと基礎モデル原則を統合することで、FeTal-SAMは胎児脳MRIのセグメンテーションにおける2つの重要な制限に対処する。
論文 参考訳(メタデータ) (2026-01-22T08:49:33Z) - Subcortical Masks Generation in CT Images via Ensemble-Based Cross-Domain Label Transfer [1.312727273368205]
神経画像における皮質下セグメンテーションは、脳解剖の理解と、外傷性脳損傷や神経変性障害のコンピュータ支援による診断の促進に重要な役割を果たしている。
磁気共鳴画像(MRI)用の皮質下セグメンテーションデータセットが公開されているが、CT(Computed Tomography)には大きなギャップがある。
本稿では,既存のMRIモデルを利用して,CTスキャンのための高品質な皮質下セグメンテーションラベルを生成するための自動アンサンブルフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-15T12:57:35Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Towards a Comprehensive, Efficient and Promptable Anatomic Structure Segmentation Model using 3D Whole-body CT Scans [23.573958232965104]
Segment Any Model (SAM) は、自然画像のセグメンテーションに強い一般化能力を示す。
我々はCT-SAM3Dという全身CTセグメント化のための包括的でスケーラブルな3次元SAMモデルを提案する。
CT-SAM3Dは107体の解剖を含む1204個のCTスキャンによって訓練されている。
論文 参考訳(メタデータ) (2024-03-22T09:40:52Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Weakly Supervised Lesion Co-segmentation on CT Scans [18.58056402884405]
本稿では、まずRECISTスライスから擬似マスクを生成する弱教師付きコセグメンテーションモデルを提案する。
次に、これらを注意に基づく畳み込みニューラルネットワークのトレーニングラベルとして使用し、一対のCTスキャンから共通の病変を分割する。
論文 参考訳(メタデータ) (2020-01-24T19:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。