論文の概要: Putting the Segment Anything Model to the Test with 3D Knee MRI -- A Comparison with State-of-the-Art Performance
- arxiv url: http://arxiv.org/abs/2504.13340v1
- Date: Thu, 17 Apr 2025 21:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 20:12:46.363942
- Title: Putting the Segment Anything Model to the Test with 3D Knee MRI -- A Comparison with State-of-the-Art Performance
- Title(参考訳): 3D Knee MRIによるSegment Anything Modelの試作 -最先端性能との比較-
- Authors: Oliver Mills, Philip Conaghan, Nishant Ravikumar, Samuel Relton,
- Abstract要約: メニスキは膝の軟骨組織であり、関節の潤滑や重量分散に寄与する。
メニスシの正確な自動セグメンテーションは、半月状異常の早期発見と治療を可能にする。
- 参考スコア(独自算出の注目度): 2.167419736510938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Menisci are cartilaginous tissue found within the knee that contribute to joint lubrication and weight dispersal. Damage to menisci can lead to onset and progression of knee osteoarthritis (OA), a condition that is a leading cause of disability, and for which there are few effective therapies. Accurate automated segmentation of menisci would allow for earlier detection and treatment of meniscal abnormalities, as well as shedding more light on the role the menisci play in OA pathogenesis. Focus in this area has mainly used variants of convolutional networks, but there has been no attempt to utilise recent large vision transformer segmentation models. The Segment Anything Model (SAM) is a so-called foundation segmentation model, which has been found useful across a range of different tasks due to the large volume of data used for training the model. In this study, SAM was adapted to perform fully-automated segmentation of menisci from 3D knee magnetic resonance images. A 3D U-Net was also trained as a baseline. It was found that, when fine-tuning only the decoder, SAM was unable to compete with 3D U-Net, achieving a Dice score of $0.81\pm0.03$, compared to $0.87\pm0.03$, on a held-out test set. When fine-tuning SAM end-to-end, a Dice score of $0.87\pm0.03$ was achieved. The performance of both the end-to-end trained SAM configuration and the 3D U-Net were comparable to the winning Dice score ($0.88\pm0.03$) in the IWOAI Knee MRI Segmentation Challenge 2019. Performance in terms of the Hausdorff Distance showed that both configurations of SAM were inferior to 3D U-Net in matching the meniscus morphology. Results demonstrated that, despite its generalisability, SAM was unable to outperform a basic 3D U-Net in meniscus segmentation, and may not be suitable for similar 3D medical image segmentation tasks also involving fine anatomical structures with low contrast and poorly-defined boundaries.
- Abstract(参考訳): メニスキは膝の軟骨組織であり、関節の潤滑や重量分散に寄与する。
半月板損傷は膝関節症(OA)の発症と進行につながる可能性がある。
メニスシの正確な自動セグメンテーションは、メニスシの早期発見と治療を可能にし、OA病原性においてメニスシが果たす役割に光を当てる。
この領域では、主に畳み込みネットワークの変種を使用してきたが、近年の大きな視覚変換器セグメンテーションモデルを活用する試みは行われていない。
Segment Anything Model(SAM)はいわゆるファンデーションセグメンテーションモデルであり、モデルのトレーニングに使用される大量のデータのために、さまざまなタスクで有用であることが判明した。
本研究では, SAMを用いて3次元膝関節MRI画像からメニスシスの完全自動分割を行った。
3D U-Netもベースラインとして訓練された。
その結果,デコーダのみを微調整した場合,SAMは3D U-Netと競合できず,Diceスコアが0.81\pm0.03$であるのに対し,Diceスコアは0.87\pm0.03$であることがわかった。
SAMのエンドツーエンドを微調整すると、Diceスコアは0.87\pm0.03$に達した。
エンドツーエンドのSAM構成と3D U-Netの両方のパフォーマンスは、IWOAI Knee MRI Segmentation Challenge 2019で優勝したDiceスコア(0.88\pm0.03$)に匹敵するものだった。
Hausdorff Distance による解析の結果, SAM の構成はメニスカス形態に適合する3次元 U-Net よりも劣っていることがわかった。
その結果, SAMはメニスカスセグメンテーションにおいて基本的な3次元U-Netを上回り得ず, コントラストが低く, 境界が未定義の微細な解剖学的構造を含む類似の3次元画像セグメンテーションには適さないことがわかった。
関連論文リスト
- SAMRI-2: A Memory-based Model for Cartilage and Meniscus Segmentation in 3D MRIs of the Knee Joint [0.7879983966759583]
本研究では,メモリベースのVFMを用いた3次元MRIによる軟骨・半月板分割のためのディープラーニング(DL)手法を提案する。
我々はCNNベースの3D-VNetと2つの自動トランスフォーマーベースモデル(SaMRI2DとSaMRI3D)、およびトランスフォーマーベースのプロンプト可能なメモリベースVFM(SAMRI-2)を270例の3D膝MRIで訓練した。
SAMRI-2はHSSで訓練され、他の全てのモデルより優れ、平均5ポイント改善し、最高12ポイント向上した。
論文 参考訳(メタデータ) (2025-02-14T21:18:01Z) - Lightweight Method for Interactive 3D Medical Image Segmentation with Multi-Round Result Fusion [7.158573385931718]
Segment Anything Model (SAM) は、インタラクティブセグメンテーションにおけるゼロショットの一般化機能により、広く注目を集めている。
コンパクトCNNモデルの可能性を示す新しいアプローチとして、3次元医用画像のための軽量インタラクティブネットワーク(LIM-Net)を提案する。
LIM-Netは、ユーザヒントから2Dプロンプトマスクを生成することによってセグメンテーションを開始する。
SAMベースのモデルと比較して、より強力な一般化が示され、競争精度が向上する一方で、より少ない相互作用が要求される。
論文 参考訳(メタデータ) (2024-12-11T11:52:16Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - MedSegMamba: 3D CNN-Mamba Hybrid Architecture for Brain Segmentation [15.514511820130474]
我々は皮質下脳分割のための3DパッチベースのハイブリッドCNN-Mambaモデルを開発した。
モデルの性能をいくつかのベンチマークで検証した。
論文 参考訳(メタデータ) (2024-09-12T02:19:19Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。