論文の概要: SAM-Med3D: Towards General-purpose Segmentation Models for Volumetric Medical Images
- arxiv url: http://arxiv.org/abs/2310.15161v3
- Date: Sat, 14 Sep 2024 05:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 03:37:26.059275
- Title: SAM-Med3D: Towards General-purpose Segmentation Models for Volumetric Medical Images
- Title(参考訳): SAM-Med3D:ボリューム・メディカル・イメージのための汎用セグメンテーション・モデルに向けて
- Authors: Haoyu Wang, Sizheng Guo, Jin Ye, Zhongying Deng, Junlong Cheng, Tianbin Li, Jianpin Chen, Yanzhou Su, Ziyan Huang, Yiqing Shen, Bin Fu, Shaoting Zhang, Junjun He, Yu Qiao,
- Abstract要約: ボリューム医療画像の汎用セグメンテーションのためのSAM-Med3Dを提案する。
SAM-Med3Dは様々な解剖学的構造と病変を正確に分類することができる。
提案手法は,医療資源を多用した汎用医療AIの開発に活用できることを実証するものである。
- 参考スコア(独自算出の注目度): 35.83393121891959
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Existing volumetric medical image segmentation models are typically task-specific, excelling at specific target but struggling to generalize across anatomical structures or modalities. This limitation restricts their broader clinical use. In this paper, we introduce SAM-Med3D for general-purpose segmentation on volumetric medical images. Given only a few 3D prompt points, SAM-Med3D can accurately segment diverse anatomical structures and lesions across various modalities. To achieve this, we gather and process a large-scale 3D medical image dataset, SA-Med3D-140K, from a blend of public sources and licensed private datasets. This dataset includes 22K 3D images and 143K corresponding 3D masks. Then SAM-Med3D, a promptable segmentation model characterized by the fully learnable 3D structure, is trained on this dataset using a two-stage procedure and exhibits impressive performance on both seen and unseen segmentation targets. We comprehensively evaluate SAM-Med3D on 16 datasets covering diverse medical scenarios, including different anatomical structures, modalities, targets, and zero-shot transferability to new/unseen tasks. The evaluation shows the efficiency and efficacy of SAM-Med3D, as well as its promising application to diverse downstream tasks as a pre-trained model. Our approach demonstrates that substantial medical resources can be utilized to develop a general-purpose medical AI for various potential applications. Our dataset, code, and models are available at https://github.com/uni-medical/SAM-Med3D.
- Abstract(参考訳): 既存のボリューム画像セグメンテーションモデルは、典型的にはタスク固有であり、特定のターゲットにおいて優れたが、解剖学的構造やモダリティをまたいだ一般化に苦慮している。
この制限は、より広範な臨床使用を制限する。
本稿では,ボリューム医療画像の汎用セグメンテーションのためのSAM-Med3Dを提案する。
SAM-Med3Dはわずか3Dのプロンプトポイントしか持たないため、様々な解剖学的構造や病変を正確に分類することができる。
そこで我々は,大規模な3次元医用画像データセットSA-Med3D-140Kを公開ソースとライセンスされたプライベートデータセットのブレンドから収集し,処理する。
このデータセットには22Kの3D画像と143K対応の3Dマスクが含まれている。
次に、完全に学習可能な3D構造を特徴とする素早いセグメンテーションモデルSAM-Med3Dを、このデータセット上で2段階のプロシージャを用いてトレーニングし、目に見えないセグメンテーションターゲットと見えないセグメンテーションターゲットの両方に印象的なパフォーマンスを示す。
16のデータセットに対してSAM-Med3Dを包括的に評価し,解剖学的構造,モダリティ,ターゲット,新規/未確認タスクへのゼロショット転送性など,さまざまな医療シナリオを網羅した。
本評価は,SAM-Med3Dの有効性と有効性,および事前学習モデルとしての多様な下流タスクへの適用性を示す。
提案手法は,医療資源を多種多様な応用のための汎用医療AIの開発に活用できることを実証する。
私たちのデータセット、コード、モデルはhttps://github.com/uni-medical/SAM-Med3D.comで公開されています。
関連論文リスト
- Interactive 3D Medical Image Segmentation with SAM 2 [17.523874868612577]
ビデオで訓練した次世代のMeta SAMモデルSAM 2のゼロショット機能について, 医用画像のセグメンテーションについて検討する。
3D画像のシーケンシャルな2Dスライスをビデオフレームとして扱うことで、SAM 2は単一のフレームから3Dボリューム全体へのアノテーションの完全な伝達を可能にする。
論文 参考訳(メタデータ) (2024-08-05T16:58:56Z) - SAM-Med3D-MoE: Towards a Non-Forgetting Segment Anything Model via Mixture of Experts for 3D Medical Image Segmentation [36.95030121663565]
Supervised Finetuning (SFT) は、タスク固有の下流タスクに基礎モデルを適用する効果的な方法として機能する。
本稿では,タスク固有の微調整モデルと基礎モデルとをシームレスに統合する新しいフレームワークSAM-Med3D-MoEを提案する。
実験では, SAM-Med3D-MoEの有効性を実証し, 平均Dice性能は15種類のクラスで53から56.4に向上した。
論文 参考訳(メタデータ) (2024-07-06T03:03:45Z) - M3D: Advancing 3D Medical Image Analysis with Multi-Modal Large Language Models [49.5030774873328]
これまでの研究は主に2Dの医療画像に焦点を合わせてきた。
120K画像テキスト対と62K命令応答対からなる大規模3次元マルチモーダル医療データセットM3D-Dataを提案する。
また,新しい3次元マルチモーダル・メディカル・ベンチマークであるM3D-Benchを導入し,8つのタスクにまたがる自動評価を容易にする。
論文 参考訳(メタデータ) (2024-03-31T06:55:12Z) - One Model to Rule them All: Towards Universal Segmentation for Medical Images with Text Prompts [62.55349777609194]
我々は、SATと呼ばれるテキストプロンプトによって駆動される放射線学的スキャンにおいて、任意のセグメンテーションを可能にするモデルを構築することを目指している。
トレーニングのために、最大かつ最も包括的なセグメンテーションデータセットを構築します。
我々はSAT-Nano(110Mパラメータ)とSAT-Pro(447Mパラメータ)をトレーニングし、データセット/サブセット毎にトレーニングされた72の専門家nnU-Netに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-28T18:16:00Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - MedLSAM: Localize and Segment Anything Model for 3D CT Images [13.320012515543116]
MedLAM(MedLAM)は,数個のテンプレートスキャンを用いて体内の解剖学的部位を正確に同定する3次元基礎局在モデルである。
私たちはMedLAMとSegment Anything Model(SAM)を統合してMedLSAMを開発した。
1)MedLSAMはSAMの性能と,その専門的な医療適応を手動のプロンプトと密に一致させ,データセット全体にわたる広範なポイントアノテーションの必要性を最小限に抑えながら,いくつかのテンプレートスキャンを用いて解剖学的構造を直接ローカライズすることができる。
論文 参考訳(メタデータ) (2023-06-26T15:09:02Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。