論文の概要: Segment anything model for head and neck tumor segmentation with CT, PET
and MRI multi-modality images
- arxiv url: http://arxiv.org/abs/2402.17454v1
- Date: Tue, 27 Feb 2024 12:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:21:53.937880
- Title: Segment anything model for head and neck tumor segmentation with CT, PET
and MRI multi-modality images
- Title(参考訳): ct, pet, mriマルチモダリティ画像を用いた頭頸部腫瘍分割のためのsegment anythingモデル
- Authors: Jintao Ren, Mathis Rasmussen, Jasper Nijkamp, Jesper Grau Eriksen and
Stine Korreman
- Abstract要約: 本研究は,最小限の人的プロンプトを必要とすると認識されるセグメンション・アプライシング・モデル(SAM)について検討する。
具体的には,大規模な医用画像を用いたSAMのバージョンであるMedSAMについて検討する。
本研究は,超微調整SAMのセグメンテーション精度が向上し,既に有効なゼロショット結果が得られたことを実証する。
- 参考スコア(独自算出の注目度): 0.04924932828166548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning presents novel opportunities for the auto-segmentation of gross
tumor volume (GTV) in head and neck cancer (HNC), yet fully automatic methods
usually necessitate significant manual refinement. This study investigates the
Segment Anything Model (SAM), recognized for requiring minimal human prompting
and its zero-shot generalization ability across natural images. We specifically
examine MedSAM, a version of SAM fine-tuned with large-scale public medical
images. Despite its progress, the integration of multi-modality images (CT,
PET, MRI) for effective GTV delineation remains a challenge. Focusing on SAM's
application in HNC GTV segmentation, we assess its performance in both
zero-shot and fine-tuned scenarios using single (CT-only) and fused
multi-modality images. Our study demonstrates that fine-tuning SAM
significantly enhances its segmentation accuracy, building upon the already
effective zero-shot results achieved with bounding box prompts. These findings
open a promising avenue for semi-automatic HNC GTV segmentation.
- Abstract(参考訳): 深層学習は頭頸部癌(hnc)における総腫瘍量(gtv)の自動診断の新たな機会を提供するが、完全に自動化された手法は通常、重要な手作業による改善を必要とする。
本研究は,人間のプロンプトを最小にすることと,そのゼロショット一般化能力が自然画像間で認識されるセグメント・エナジーモデル(sam)について検討する。
具体的には,大規模な医用画像を用いたSAMのバージョンであるMedSAMについて検討する。
その進歩にもかかわらず、効率的なGTVデライン化のための多モード画像(CT、PET、MRI)の統合は依然として課題である。
HNC GTVセグメンテーションにおけるSAMの応用に着目し、単一(CTのみ)および融合多モード画像を用いて、ゼロショットシナリオと微調整シナリオの両方において、その性能を評価する。
本研究は,拘束箱プロンプトによって達成された既に有効なゼロショット結果に基づいて,細調整SAMがセグメンテーション精度を大幅に向上することを示す。
これらの所見は半自動HNC GTVセグメンテーションの有望な道を開く。
関連論文リスト
- TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Segment Anything Model for Brain Tumor Segmentation [3.675657219384998]
グリオーマ(Glioma)は、個体に重大な健康リスクをもたらす脳腫瘍である。
Meta AIがリリースしたSegment Anything Modelは、画像セグメンテーションの基本モデルであり、ゼロサンプルの一般化機能に優れています。
そこで本研究では, SAMの脳腫瘍セグメンテーションにおける性能について検討し, モデル微調整がなければ, SAMと現状SOTAモデルとの間には相違があることを見出した。
論文 参考訳(メタデータ) (2023-09-15T14:33:03Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - When SAM Meets Medical Images: An Investigation of Segment Anything
Model (SAM) on Multi-phase Liver Tumor Segmentation [4.154974672747996]
Segment Anything Model (SAM) は重要なゼロショット画像セグメンテーションを実行する。
医療画像解析におけるSAMの有用性について検討した。
論文 参考訳(メタデータ) (2023-04-17T16:02:06Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。