論文の概要: AI-Driven MRI-based Brain Tumour Segmentation Benchmarking
- arxiv url: http://arxiv.org/abs/2506.20786v1
- Date: Wed, 25 Jun 2025 19:18:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.862726
- Title: AI-Driven MRI-based Brain Tumour Segmentation Benchmarking
- Title(参考訳): AI駆動型MRIを用いたブレインタミュラセグメンテーションベンチマーク
- Authors: Connor Ludwig, Khashayar Namdar, Farzad Khalvati,
- Abstract要約: 本研究は,BraTS 2023成人グリオーマと小児科学データセットのゼロショット推論を得るために,小児科領域のSegment Anything Model (SAM2),Segment Anything Model 2 (SAM2),MedSAM,SAM-Med-3D,nnU-Netを用いている。
いくつかのモデルでは、有望なDiceスコア、特にSAMとSAM 2は、非常に正確なバウンディングボックスプロンプトが与えられたとき、それぞれ0.894と0.893のスコアを達成している。
しかし、nnU-Netはモデルに高精度なプロンプトを提供することの非現実性のため、医用画像セグメンテーションネットワークの主流のままである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical image segmentation has greatly aided medical diagnosis, with U-Net based architectures and nnU-Net providing state-of-the-art performance. There have been numerous general promptable models and medical variations introduced in recent years, but there is currently a lack of evaluation and comparison of these models across a variety of prompt qualities on a common medical dataset. This research uses Segment Anything Model (SAM), Segment Anything Model 2 (SAM 2), MedSAM, SAM-Med-3D, and nnU-Net to obtain zero-shot inference on the BraTS 2023 adult glioma and pediatrics dataset across multiple prompt qualities for both points and bounding boxes. Several of these models exhibit promising Dice scores, particularly SAM and SAM 2 achieving scores of up to 0.894 and 0.893, respectively when given extremely accurate bounding box prompts which exceeds nnU-Net's segmentation performance. However, nnU-Net remains the dominant medical image segmentation network due to the impracticality of providing highly accurate prompts to the models. The model and prompt evaluation, as well as the comparison, are extended through fine-tuning SAM, SAM 2, MedSAM, and SAM-Med-3D on the pediatrics dataset. The improvements in point prompt performance after fine-tuning are substantial and show promise for future investigation, but are unable to achieve better segmentation than bounding boxes or nnU-Net.
- Abstract(参考訳): 医用画像のセグメンテーションは、U-NetベースのアーキテクチャとnnU-Netが最先端のパフォーマンスを提供するなど、医療診断を大いに助けてきた。
近年、多くの一般的なプロンプト可能なモデルや医学的なバリエーションが導入されたが、一般的な医療データセットにおいて、これらのモデルの評価と比較は、様々なプロンプト品質で行われていない。
本研究は,BraTS 2023成人グリオーマと小児科におけるゼロショット推論を得るために,Segment Anything Model (SAM2),Segment Anything Model 2 (SAM2),MedSAM,SAM-Med-3D,nnU-Netを用いている。
これらのモデルのいくつかは、有望なDiceスコアを示し、特にSAMとSAM 2は、それぞれ、nnU-Netのセグメンテーション性能を超える非常に正確なバウンディングボックスプロンプトを与えられたとき、0.894と0.893のスコアを達成している。
しかし、nnU-Netはモデルに高精度なプロンプトを提供することの非現実性のため、医用画像セグメンテーションネットワークの主流のままである。
モデルと即時評価は、小児科のデータセット上でSAM, SAM 2, MedSAM, SAM-Med-3Dを微調整することで拡張される。
微調整後のポイントプロンプト性能の改善は重要であり、将来の調査を約束するが、バウンディングボックスやnnU-Netよりもセグメンテーションが良くない。
関連論文リスト
- Performance Analysis of Deep Learning Models for Femur Segmentation in MRI Scan [5.5193366921929155]
我々は3つのCNNベースモデル(U-Net, Attention U-Net, U-KAN)と1つのトランスフォーマーベースモデルSAM 2の性能評価と比較を行った。
このデータセットは11,164個のMRIスキャンと大腿骨領域の詳細なアノテーションから構成されている。
注意点U-Netは全体のスコアが最も高く、U-KANは興味の少ない解剖学的領域において優れたパフォーマンスを示した。
論文 参考訳(メタデータ) (2025-04-05T05:47:56Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - PAM: A Propagation-Based Model for Segmenting Any 3D Objects across Multi-Modal Medical Images [11.373941923130305]
PAM(Propagating Anything Model)は、境界ボックスやスケッチのような2Dプロンプトを使用して、医療画像ボリュームの完全な3Dセグメンテーションを作成するセグメンテーションアプローチである。
MedSAMやSegVolのような既存のモデルでは、44の医療データセットと様々な種類のオブジェクトに対して平均18.1%以上のダイス類似度係数(DSC)が向上した。
論文 参考訳(メタデータ) (2024-08-25T13:42:47Z) - Improved Baselines with Synchronized Encoding for Universal Medical Image Segmentation [34.08601740109437]
SyncSAMは、医用画像符号化を強化するために、畳み込みとトランスフォーマー機能を統合した同期デュアルブランチエンコーダを使用する。
SyncSAMはテストセットで最先端のパフォーマンスを実現し、目に見えないデータセットで強力なゼロショット機能を示す。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。