論文の概要: SAM2-Aug: Prior knowledge-based Augmentation for Target Volume Auto-Segmentation in Adaptive Radiation Therapy Using Segment Anything Model 2
- arxiv url: http://arxiv.org/abs/2507.19282v1
- Date: Fri, 25 Jul 2025 13:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.981255
- Title: SAM2-Aug: Prior knowledge-based Augmentation for Target Volume Auto-Segmentation in Adaptive Radiation Therapy Using Segment Anything Model 2
- Title(参考訳): SAM2-Aug:Segment Anything Model 2 を用いた適応放射線治療における目標容積自動隔離のための事前知識ベース拡張
- Authors: Guoping Xu, Yan Dai, Hengrui Zhao, Ying Zhang, Jie Deng, Weiguo Lu, You Zhang,
- Abstract要約: Segment Anything Model 2 (SAM2)は、プロンプトベースのセグメンテーションを約束するが、腫瘍の精度に苦慮している。
我々は、適応放射線治療(ART)のためのSAM2を強化するための知識に基づく事前増強戦略を提案する。
SAM2-Augは1-Seq-Liverデータセット(31例の肝癌患者の115個のMRI)で微調整された。
- 参考スコア(独自算出の注目度): 6.833468826526835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Accurate tumor segmentation is vital for adaptive radiation therapy (ART) but remains time-consuming and user-dependent. Segment Anything Model 2 (SAM2) shows promise for prompt-based segmentation but struggles with tumor accuracy. We propose prior knowledge-based augmentation strategies to enhance SAM2 for ART. Methods: Two strategies were introduced to improve SAM2: (1) using prior MR images and annotations as contextual inputs, and (2) improving prompt robustness via random bounding box expansion and mask erosion/dilation. The resulting model, SAM2-Aug, was fine-tuned and tested on the One-Seq-Liver dataset (115 MRIs from 31 liver cancer patients), and evaluated without retraining on Mix-Seq-Abdomen (88 MRIs, 28 patients) and Mix-Seq-Brain (86 MRIs, 37 patients). Results: SAM2-Aug outperformed convolutional, transformer-based, and prompt-driven models across all datasets, achieving Dice scores of 0.86(liver), 0.89(abdomen), and 0.90(brain). It demonstrated strong generalization across tumor types and imaging sequences, with improved performance in boundary-sensitive metrics. Conclusions: Incorporating prior images and enhancing prompt diversity significantly boosts segmentation accuracy and generalizability. SAM2-Aug offers a robust, efficient solution for tumor segmentation in ART. Code and models will be released at https://github.com/apple1986/SAM2-Aug.
- Abstract(参考訳): 目的: 適応放射線療法(ART)において, 正確な腫瘍セグメンテーションが不可欠である。
Segment Anything Model 2 (SAM2)は、プロンプトベースのセグメンテーションを約束するが、腫瘍の精度に苦慮している。
ARTのためのSAM2を強化するための知識ベース拡張戦略を提案する。
方法:(1)事前MR画像とアノテーションを文脈入力として使用すること,(2)ランダムな境界ボックス展開とマスク侵食/拡散による迅速なロバスト性の向上,の2つの方法が提案された。
その結果、SAM2-AugはOne-Seq-Liverデータセット(31例の肝癌患者115例)で微調整され、Mix-Seq-Abdomen(88例、28例)とMix-Seq-Brain(86例、37例)で再トレーニングすることなく評価された。
結果:SAM2-Augは、すべてのデータセットで畳み込み、トランスフォーマーベース、およびプロンプト駆動モデルより優れており、Diceスコアは0.86(liver), 0.89(abdomen), 0.90(brain)である。
腫瘍の種類や画像の配列をまたいだ強力な一般化が示され、境界感度測定のパフォーマンスが向上した。
結論: 先行画像の取り込みと迅速な多様性の向上は,セグメント化精度と一般化可能性を大幅に向上させる。
SAM2-AugはARTの腫瘍セグメンテーションに対して堅牢で効率的なソリューションを提供する。
コードとモデルはhttps://github.com/apple 1986/SAM2-Aug.comでリリースされる。
関連論文リスト
- ReCoSeg++:Extended Residual-Guided Cross-Modal Diffusion for Brain Tumor Segmentation [0.9374652839580183]
より大きく異質なBraTS 2021データセットにReCoSegアプローチを拡張した,半教師付き2段階のフレームワークを提案する。
第1段階では、残留誘導拡散確率モデル (DDPM) がFLAIR, T1, T2スキャンからT1ceモダリティを再構成することにより、クロスモーダル合成を行う。
第2段階では、軽量なU-Netが残基マップの連結を入力として、T1, T2, FLAIRによるT1ceと合成されたT1ceの差として計算し、腫瘍全体のセグメンテーションを改善する。
論文 参考訳(メタデータ) (2025-08-01T20:24:31Z) - MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts [54.915060471994686]
MAST-Proは,ダイナミックなMixture-of-Experts(D-MoE)とパン腫瘍セグメンテーションのための知識駆動プロンプトを統合した新しいフレームワークである。
具体的には、テキストと解剖学的プロンプトは、腫瘍表現学習を導くドメイン固有の事前情報を提供し、D-MoEは、ジェネリックと腫瘍固有の特徴学習のバランスをとる専門家を動的に選択する。
マルチ解剖学的腫瘍データセットの実験では、MAST-Proは最先端のアプローチよりも優れており、トレーニング可能なパラメータを91.04%削減し、平均改善の5.20%を達成している。
論文 参考訳(メタデータ) (2025-03-18T15:39:44Z) - GBT-SAM: Adapting a Foundational Deep Learning Model for Generalizable Brain Tumor Segmentation via Efficient Integration of Multi-Parametric MRI Data [5.7802171590699984]
GBT-SAMはパラメータ効率のよいディープラーニングフレームワークで,Segment Anything Modelをmp-MRIデータに適用する。
本モデルは,深度認識モジュールを組み込んだ2段階の微調整戦略により,スライス間相関を抽出する。
BraTSアダルトグリオーマデータセットで93.54のDiceスコアを達成し、メニンギオーマ、小児グリオーマ、サブサハラグリオーマデータセットで堅牢なパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-06T11:18:22Z) - Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Hybrid Window Attention Based Transformer Architecture for Brain Tumor
Segmentation [28.650980942429726]
細かな特徴を抽出するための2つのウィンドウ化戦略に従うボリューム視覚変換器を提案する。
FeTS Challenge 2022データセット上で,ネットワークアーキテクチャをトレーニングし,評価した。
オンライン検証データセットのパフォーマンスは以下の通りである。 Dice similarity Score of 81.71%, 91.38%, 85.40%。
論文 参考訳(メタデータ) (2022-09-16T03:55:48Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。