論文の概要: Towards a Comprehensive, Efficient and Promptable Anatomic Structure Segmentation Model using 3D Whole-body CT Scans
- arxiv url: http://arxiv.org/abs/2403.15063v2
- Date: Wed, 18 Dec 2024 02:51:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:24:28.913291
- Title: Towards a Comprehensive, Efficient and Promptable Anatomic Structure Segmentation Model using 3D Whole-body CT Scans
- Title(参考訳): 3次元全身CTスキャンを用いた包括的・効率的・確率的解剖構造分割モデルの構築
- Authors: Heng Guo, Jianfeng Zhang, Jiaxing Huang, Tony C. W. Mok, Dazhou Guo, Ke Yan, Le Lu, Dakai Jin, Minfeng Xu,
- Abstract要約: Segment Any Model (SAM) は、自然画像のセグメンテーションに強い一般化能力を示す。
我々はCT-SAM3Dという全身CTセグメント化のための包括的でスケーラブルな3次元SAMモデルを提案する。
CT-SAM3Dは107体の解剖を含む1204個のCTスキャンによって訓練されている。
- 参考スコア(独自算出の注目度): 23.573958232965104
- License:
- Abstract: Segment anything model (SAM) demonstrates strong generalization ability on natural image segmentation. However, its direct adaptation in medical image segmentation tasks shows significant performance drops. It also requires an excessive number of prompt points to obtain a reasonable accuracy. Although quite a few studies explore adapting SAM into medical image volumes, the efficiency of 2D adaptation methods is unsatisfactory and 3D adaptation methods are only capable of segmenting specific organs/tumors. In this work, we propose a comprehensive and scalable 3D SAM model for whole-body CT segmentation, named CT-SAM3D. Instead of adapting SAM, we propose a 3D promptable segmentation model using a (nearly) fully labeled CT dataset. To train CT-SAM3D effectively, ensuring the model's accurate responses to higher-dimensional spatial prompts is crucial, and 3D patch-wise training is required due to GPU memory constraints. Therefore, we propose two key technical developments: 1) a progressively and spatially aligned prompt encoding method to effectively encode click prompts in local 3D space; and 2) a cross-patch prompt scheme to capture more 3D spatial context, which is beneficial for reducing the editing workloads when interactively prompting on large organs. CT-SAM3D is trained using a curated dataset of 1204 CT scans containing 107 whole-body anatomies and extensively validated using five datasets, achieving significantly better results against all previous SAM-derived models. Code, data, and our 3D interactive segmentation tool with quasi-real-time responses are available at https://github.com/alibaba-damo-academy/ct-sam3d.
- Abstract(参考訳): Segment Any Model (SAM) は、自然画像のセグメンテーションに強い一般化能力を示す。
しかし、医用画像分割タスクへの直接適応は、大幅な性能低下を示している。
また、正確な精度を得るためには、過剰な数のプロンプトポイントが必要である。
SAMを医用画像量に適応させる研究はほとんどないが、2D適応法の効率は不十分であり、3D適応法は特定の臓器や腫瘍を分節化できるのみである。
そこで本研究では,CT-SAM3Dという全身CTセグメンテーションのための包括的でスケーラブルな3次元SAMモデルを提案する。
SAMを適応させる代わりに、(ほぼ)完全ラベル付きCTデータセットを用いた3次元プロンプト可能なセグメンテーションモデルを提案する。
CT-SAM3Dを効果的に訓練するには、高次元空間的プロンプトに対するモデルの正確な応答を保証することが不可欠であり、GPUメモリの制約により3Dパッチワイドトレーニングが必要である。
そこで我々は,2つの重要な技術発展を提案する。
1) 局所的な3次元空間におけるクリックプロンプトを効果的に符号化するための、段階的かつ空間的に整合したプロンプトエンコーディング法
2) クロスパッチプロンプト方式により, より大きな臓器を対話的にプロンプトする際には, 編集作業の削減に有効である。
CT-SAM3Dは107体の解剖を含む1204個のCTスキャンのキュレートされたデータセットを使用して訓練され、5つのデータセットを使用して広範囲に検証され、以前のSAM由来のモデルに対して大幅に改善された結果が得られた。
コード、データ、および準リアルタイム応答を備えた3Dインタラクティブセグメンテーションツールは、https://github.com/alibaba-damo-academy/ct-sam3d.comで公開されている。
関連論文リスト
- RefSAM3D: Adapting SAM with Cross-modal Reference for 3D Medical Image Segmentation [17.69664156349825]
Segment Anything Model(SAM)は、2Dの自然画像のグローバルなパターンを捉えるのに優れています。
本稿では,3次元画像アダプティブと相互参照プロンプト生成を組み込むことにより,SAMを3次元医用画像に適応させるRefSAM3Dを紹介する。
医療画像における複雑な解剖学的構造を正確に区分する上で,SAMの応用を推し進めた。
論文 参考訳(メタデータ) (2024-12-07T10:22:46Z) - SAM3D: Zero-Shot Semi-Automatic Segmentation in 3D Medical Images with the Segment Anything Model [3.2554912675000818]
SAM3Dは,既存のセグメンテーションモデル上に構築された3次元画像の半自動ゼロショットセグメンテーションのための新しいアプローチである。
ユーザが3Dポリラインでプロンプトし、複数の軸に沿ってボリュームスライスし、事前訓練されたモデルでスライスワイド推論を行い、3Dで再構成と洗練を行う4段階の戦略で、3D画像の高速かつ正確なセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-05-10T19:26:17Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - TomoSAM: a 3D Slicer extension using SAM for tomography segmentation [62.997667081978825]
TomoSAMは、最先端のSegment Anything Model(SAM)を3Dスライダに統合するために開発された。
SAMは、オブジェクトを識別し、ゼロショットで画像マスクを作成することができる、迅速なディープラーニングモデルである。
これらのツール間のシナジーは、トモグラフィや他のイメージング技術からの複雑な3Dデータセットのセグメンテーションに役立つ。
論文 参考訳(メタデータ) (2023-06-14T16:13:27Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Spatial Context-Aware Self-Attention Model For Multi-Organ Segmentation [18.76436457395804]
マルチ組織セグメンテーションは、医学画像解析におけるディープラーニングの最も成功した応用の1つである。
深部畳み込みニューラルネット(CNN)は,CT画像やMRI画像上で臨床応用画像のセグメンテーション性能を達成する上で非常に有望である。
本研究では,高分解能2次元畳み込みによりセグメンテーションを実現する3次元モデルと2次元モデルを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-16T21:39:53Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Bidirectional RNN-based Few Shot Learning for 3D Medical Image
Segmentation [11.873435088539459]
対象臓器アノテーションの限られたトレーニングサンプルを用いて, 正確な臓器分類を行うための3次元ショットセグメンテーションフレームワークを提案する。
U-Netのようなネットワークは、サポートデータの2次元スライスとクエリイメージの関係を学習することでセグメンテーションを予測するように設計されている。
異なる臓器のアノテーションを付加した3つの3次元CTデータセットを用いて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-19T01:44:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。