論文の概要: SAM-Med3D
- arxiv url: http://arxiv.org/abs/2310.15161v2
- Date: Sun, 29 Oct 2023 15:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 19:25:10.739032
- Title: SAM-Med3D
- Title(参考訳): SAM-Med3D
- Authors: Haoyu Wang, Sizheng Guo, Jin Ye, Zhongying Deng, Junlong Cheng,
Tianbin Li, Jianpin Chen, Yanzhou Su, Ziyan Huang, Yiqing Shen, Bin Fu,
Shaoting Zhang, Junjun He, Yu Qiao
- Abstract要約: SAM-Med3D(SAM-Med3D)について紹介する。
我々はSAM-Med3Dを131K以上の3Dマスクと247のカテゴリで訓練する。
SAMと比較すると,3次元医用画像の高効率化と広いセグメンテーション能力を示す。
- 参考スコア(独自算出の注目度): 36.6362248184995
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Although the Segment Anything Model (SAM) has demonstrated impressive
performance in 2D natural image segmentation, its application to 3D volumetric
medical images reveals significant shortcomings, namely suboptimal performance
and unstable prediction, necessitating an excessive number of prompt points to
attain the desired outcomes. These issues can hardly be addressed by
fine-tuning SAM on medical data because the original 2D structure of SAM
neglects 3D spatial information. In this paper, we introduce SAM-Med3D, the
most comprehensive study to modify SAM for 3D medical images. Our approach is
characterized by its comprehensiveness in two primary aspects: firstly, by
comprehensively reformulating SAM to a thorough 3D architecture trained on a
comprehensively processed large-scale volumetric medical dataset; and secondly,
by providing a comprehensive evaluation of its performance. Specifically, we
train SAM-Med3D with over 131K 3D masks and 247 categories. Our SAM-Med3D
excels at capturing 3D spatial information, exhibiting competitive performance
with significantly fewer prompt points than the top-performing fine-tuned SAM
in the medical domain. We then evaluate its capabilities across 15 datasets and
analyze it from multiple perspectives, including anatomical structures,
modalities, targets, and generalization abilities. Our approach, compared with
SAM, showcases pronouncedly enhanced efficiency and broad segmentation
capabilities for 3D volumetric medical images. Our code is released at
https://github.com/uni-medical/SAM-Med3D.
- Abstract(参考訳): SAM(Segment Anything Model)は2次元の自然な画像分割において顕著な性能を示したが、3次元の医用画像への応用により、最適な性能と不安定な予測という重大な欠点が明らかとなり、過剰な数のプロンプトポイントが要求される。
これらの問題は、SAMの元々の2次元構造が3次元空間情報を無視しているため、医療データ上でSAMを微調整することは困難である。
本稿では、3次元医用画像に対してsamを修正するための最も包括的な研究であるsam-med3dを紹介する。
まず,包括的に処理された大規模大量医療データセット上でトレーニングされた徹底した3dアーキテクチャにsamを包括的に再構成し,次に,その性能の包括的評価を提供することにより,その包括性を特徴とする。
具体的には、SAM-Med3Dを131K以上の3Dマスクと247のカテゴリで訓練する。
我々のSAM-Med3Dは3次元空間情報の取得に優れており、医療領域における最高の微調整SAMよりもはるかに少ないプロンプトポイントで競合性能を示す。
次に、15のデータセットにまたがる能力を評価し、解剖学的構造、モダリティ、ターゲット、一般化能力など、さまざまな視点から分析する。
SAMと比較すると,3次元医用画像の高効率化と広いセグメンテーション能力を示す。
私たちのコードはhttps://github.com/uni-medical/SAM-Med3Dでリリースされています。
関連論文リスト
- Interactive 3D Medical Image Segmentation with SAM 2 [17.523874868612577]
ビデオで訓練した次世代のMeta SAMモデルSAM 2のゼロショット機能について, 医用画像のセグメンテーションについて検討する。
3D画像のシーケンシャルな2Dスライスをビデオフレームとして扱うことで、SAM 2は単一のフレームから3Dボリューム全体へのアノテーションの完全な伝達を可能にする。
論文 参考訳(メタデータ) (2024-08-05T16:58:56Z) - SAM-Med3D-MoE: Towards a Non-Forgetting Segment Anything Model via Mixture of Experts for 3D Medical Image Segmentation [36.95030121663565]
Supervised Finetuning (SFT) は、タスク固有の下流タスクに基礎モデルを適用する効果的な方法として機能する。
本稿では,タスク固有の微調整モデルと基礎モデルとをシームレスに統合する新しいフレームワークSAM-Med3D-MoEを提案する。
実験では, SAM-Med3D-MoEの有効性を実証し, 平均Dice性能は15種類のクラスで53から56.4に向上した。
論文 参考訳(メタデータ) (2024-07-06T03:03:45Z) - M3D: Advancing 3D Medical Image Analysis with Multi-Modal Large Language Models [49.5030774873328]
これまでの研究は主に2Dの医療画像に焦点を合わせてきた。
120K画像テキスト対と62K命令応答対からなる大規模3次元マルチモーダル医療データセットM3D-Dataを提案する。
また,新しい3次元マルチモーダル・メディカル・ベンチマークであるM3D-Benchを導入し,8つのタスクにまたがる自動評価を容易にする。
論文 参考訳(メタデータ) (2024-03-31T06:55:12Z) - One Model to Rule them All: Towards Universal Segmentation for Medical Images with Text Prompts [62.55349777609194]
我々は、SATと呼ばれるテキストプロンプトによって駆動される放射線学的スキャンにおいて、任意のセグメンテーションを可能にするモデルを構築することを目指している。
トレーニングのために、最大かつ最も包括的なセグメンテーションデータセットを構築します。
我々はSAT-Nano(110Mパラメータ)とSAT-Pro(447Mパラメータ)をトレーニングし、データセット/サブセット毎にトレーニングされた72の専門家nnU-Netに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-28T18:16:00Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - MedLSAM: Localize and Segment Anything Model for 3D CT Images [13.320012515543116]
MedLAM(MedLAM)は,数個のテンプレートスキャンを用いて体内の解剖学的部位を正確に同定する3次元基礎局在モデルである。
私たちはMedLAMとSegment Anything Model(SAM)を統合してMedLSAMを開発した。
1)MedLSAMはSAMの性能と,その専門的な医療適応を手動のプロンプトと密に一致させ,データセット全体にわたる広範なポイントアノテーションの必要性を最小限に抑えながら,いくつかのテンプレートスキャンを用いて解剖学的構造を直接ローカライズすることができる。
論文 参考訳(メタデータ) (2023-06-26T15:09:02Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。