論文の概要: Segment Anything Model (SAM) for Radiation Oncology
- arxiv url: http://arxiv.org/abs/2306.11730v1
- Date: Tue, 20 Jun 2023 17:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 13:08:49.619110
- Title: Segment Anything Model (SAM) for Radiation Oncology
- Title(参考訳): 放射線腫瘍学のためのセグメンテーションモデル(SAM)
- Authors: Lian Zhang, Zhengliang Liu, Lu Zhang, Zihao Wu, Xiaowei Yu, Jason
Holmes, Hongying Feng, Haixing Dai, Xiang Li, Quanzheng Li, Dajiang Zhu,
Tianming Liu, Wei Liu
- Abstract要約: 臨床放射線治療におけるSegment Anything Model(SAM)モデルの性能評価を行った。
マヨクリニックの4地域から実検例を採取した。
- 参考スコア(独自算出の注目度): 13.556384944315958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we evaluate the performance of the Segment Anything Model
(SAM) model in clinical radiotherapy. We collected real clinical cases from
four regions at the Mayo Clinic: prostate, lung, gastrointestinal, and head \&
neck, which are typical treatment sites in radiation oncology. For each case,
we selected the OARs of concern in radiotherapy planning and compared the Dice
and Jaccard outcomes between clinical manual delineation, automatic
segmentation using SAM's "segment anything" mode, and automatic segmentation
using SAM with box prompt. Our results indicate that SAM performs better in
automatic segmentation for the prostate and lung regions, while its performance
in the gastrointestinal and head \& neck regions was relatively inferior. When
considering the size of the organ and the clarity of its boundary, SAM displays
better performance for larger organs with clear boundaries, such as the lung
and liver, and worse for smaller organs with unclear boundaries, like the
parotid and cochlea. These findings align with the generally accepted
variations in difficulty level associated with manual delineation of different
organs at different sites in clinical radiotherapy. Given that SAM, a single
trained model, could handle the delineation of OARs in four regions, these
results also demonstrate SAM's robust generalization capabilities in automatic
segmentation for radiotherapy, i.e., achieving delineation of different
radiotherapy OARs using a generic automatic segmentation model. SAM's
generalization capabilities across different regions make it technically
feasible to develop a generic model for automatic segmentation in radiotherapy.
- Abstract(参考訳): 本研究では,臨床放射線治療におけるSegment Anything Model(SAM)モデルの性能評価を行った。
前立腺,肺,消化管,頭頸部の4つの領域から,放射線腫瘍学の典型的治療部位である症例を実検した。
各症例について,放射線治療計画における関心事のOARを選択し,臨床手技による記述,SAMのセグメンテーションモードを用いた自動セグメンテーション,SAMによるボックスプロンプトを用いた自動セグメンテーションを比較した。
以上より,前立腺領域と肺領域の自動分画ではSAMが良好であり,消化管領域と頭頸部領域の成績は比較的低かった。
臓器の大きさと境界の明確さを考慮すると、samは、肺や肝臓のような明確な境界を持つより大きな臓器に対して、より優れた性能を示し、耳下腺や内耳のような境界が不明瞭な小さな臓器ではより悪化する。
これらの所見は, 臨床放射線治療において, 異なる部位の異なる臓器を手作業で脱線させる際の難易度の変化と一致した。
SAMが4つの領域におけるOARのデライン化を処理できることを考えると、これらの結果はSAMの自動セグメンテーションにおける堅牢な一般化能力、すなわち一般的な自動セグメンテーションモデルを用いて異なる放射線療法OARのデライン化を実現することの証明でもある。
SAMの様々な領域における一般化能力は、放射線治療における自動セグメンテーションのための一般的なモデルを開発することができる。
関連論文リスト
- SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Comprehensive Multimodal Segmentation in Medical Imaging: Combining
YOLOv8 with SAM and HQ-SAM Models [0.24578723416255752]
提案手法は, YOLOv8モデルを用いて, モダリティ間の近似境界ボックス検出を行う。
境界ボックスを生成するために、YOLOv8モデルは、各モードから100の画像とマスクの限られたセットを使用して訓練された。
YOLOv8, YOLOv8+SAM, YOLOv8+HQ-SAMモデルの個人および複合性能を評価するために比較分析を行った。
論文 参考訳(メタデータ) (2023-10-04T20:30:49Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Cheap Lunch for Medical Image Segmentation by Fine-tuning SAM on Few
Exemplars [19.725817146049707]
Segment Anything Model (SAM) はスケールアップセグメンテーションモデルの顕著な機能を示した。
しかし, 医療領域における基礎モデルの導入は, 十分なデータのラベル付けが困難で費用がかかるため, 課題となっている。
本稿では,限られた数の例を用いてSAMを微調整するための効率的かつ実用的な手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T15:21:25Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。