論文の概要: Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical
Images: Accuracy in 12 Datasets
- arxiv url: http://arxiv.org/abs/2304.09324v3
- Date: Fri, 5 May 2023 18:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 20:40:00.771396
- Title: Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical
Images: Accuracy in 12 Datasets
- Title(参考訳): 医用画像におけるコンピュータビジョンベンチマークセグメンテーションモデル(SAM):12データセットの精度
- Authors: Sheng He, Rina Bao, Jingpeng Li, Jeffrey Stout, Atle Bjornerud, P.
Ellen Grant, Yangming Ou
- Abstract要約: SAM( segment-anything model)は、ベンチマークモデルとして、様々な自然画像をセグメント化するための普遍的なソリューションとして、将来性を示す。
SAMは、7,451人の被験者を含む12の公開医療画像セグメンテーションデータセットでテストされた。
SAMとDiceの重なり合いは、12の医用画像セグメンテーションデータセットの5つの医用画像ベースアルゴリズムよりも有意に低かった。
- 参考スコア(独自算出の注目度): 1.6624933615451842
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background: The segment-anything model (SAM), introduced in April 2023, shows
promise as a benchmark model and a universal solution to segment various
natural images. It comes without previously-required re-training or fine-tuning
specific to each new dataset.
Purpose: To test SAM's accuracy in various medical image segmentation tasks
and investigate potential factors that may affect its accuracy in medical
images.
Methods: SAM was tested on 12 public medical image segmentation datasets
involving 7,451 subjects. The accuracy was measured by the Dice overlap between
the algorithm-segmented and ground-truth masks. SAM was compared with five
state-of-the-art algorithms specifically designed for medical image
segmentation tasks. Associations of SAM's accuracy with six factors were
computed, independently and jointly, including segmentation difficulties as
measured by segmentation ability score and by Dice overlap in U-Net, image
dimension, size of the target region, image modality, and contrast.
Results: The Dice overlaps from SAM were significantly lower than the five
medical-image-based algorithms in all 12 medical image segmentation datasets,
by a margin of 0.1-0.5 and even 0.6-0.7 Dice. SAM-Semantic was significantly
associated with medical image segmentation difficulty and the image modality,
and SAM-Point and SAM-Box were significantly associated with image segmentation
difficulty, image dimension, target region size, and target-vs-background
contrast. All these 3 variations of SAM were more accurate in 2D medical
images, larger target region sizes, easier cases with a higher Segmentation
Ability score and higher U-Net Dice, and higher foreground-background contrast.
- Abstract(参考訳): 背景: 2023年4月に導入されたsegment-anything model(sam)は、promiseをベンチマークモデルとして示し、さまざまな自然画像をセグメント化するユニバーサルソリューションである。
新しいデータセットごとに事前に要求された再トレーニングや微調整は行わない。
目的:各種医用画像分割作業におけるSAMの精度を検証し,その精度に影響を与える可能性のある因子について検討する。
方法:SAMは7,451名の被験者を含む12の公開医用画像セグメンテーションデータセットで試験された。
精度はアルゴリズム・セグメンテーションと接地マスクの重なりによって測定された。
SAMは、医療画像のセグメンテーションに特化した5つの最先端アルゴリズムと比較された。
セグメンテーション能力スコアとディス重なりによるu-netにおけるセグメンテーションの難易度,画像寸法,対象領域の大きさ,モダリティ,コントラストなど,samの精度と6因子の相関を独立に計算した。
結果: SAMとDiceの重なりは, 医療画像セグメンテーションデータセットの5つの画像ベースアルゴリズムよりも有意に低く, 0.1-0.5, 0.6-0.7Diceのマージンが得られた。
SAM-Semanticは画像分割困難と画像モダリティに大きく関連し,SAM-PointとSAM-Boxは画像分割困難,画像次元,ターゲット領域サイズ,ターゲット-vs-背景コントラストに大きく関連していた。
これら3種類のSAMは, 医用2次元画像, ターゲット領域の大きさ, セグメンテーション能力スコアが高く, U-NetDiceが高く, 前地上コントラストが高かった。
関連論文リスト
- DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Segment Anything Model for Medical Images? [38.44750512574108]
Segment Anything Model (SAM) は一般画像分割のための最初の基礎モデルである。
我々は18のモダリティ、84のオブジェクト、125のオブジェクトとモダリティのペアターゲット、1050Kの2Dイメージ、6033Kマスクを備えた大規模な医療セグメンテーションデータセットを構築した。
SAMはいくつかの特定のオブジェクトで顕著なパフォーマンスを示したが、不安定、不完全、あるいは他の状況で完全に失敗した。
論文 参考訳(メタデータ) (2023-04-28T07:23:31Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。