論文の概要: Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical
Images: Accuracy in 12 Datasets
- arxiv url: http://arxiv.org/abs/2304.09324v3
- Date: Fri, 5 May 2023 18:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 20:40:00.771396
- Title: Computer-Vision Benchmark Segment-Anything Model (SAM) in Medical
Images: Accuracy in 12 Datasets
- Title(参考訳): 医用画像におけるコンピュータビジョンベンチマークセグメンテーションモデル(SAM):12データセットの精度
- Authors: Sheng He, Rina Bao, Jingpeng Li, Jeffrey Stout, Atle Bjornerud, P.
Ellen Grant, Yangming Ou
- Abstract要約: SAM( segment-anything model)は、ベンチマークモデルとして、様々な自然画像をセグメント化するための普遍的なソリューションとして、将来性を示す。
SAMは、7,451人の被験者を含む12の公開医療画像セグメンテーションデータセットでテストされた。
SAMとDiceの重なり合いは、12の医用画像セグメンテーションデータセットの5つの医用画像ベースアルゴリズムよりも有意に低かった。
- 参考スコア(独自算出の注目度): 1.6624933615451842
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background: The segment-anything model (SAM), introduced in April 2023, shows
promise as a benchmark model and a universal solution to segment various
natural images. It comes without previously-required re-training or fine-tuning
specific to each new dataset.
Purpose: To test SAM's accuracy in various medical image segmentation tasks
and investigate potential factors that may affect its accuracy in medical
images.
Methods: SAM was tested on 12 public medical image segmentation datasets
involving 7,451 subjects. The accuracy was measured by the Dice overlap between
the algorithm-segmented and ground-truth masks. SAM was compared with five
state-of-the-art algorithms specifically designed for medical image
segmentation tasks. Associations of SAM's accuracy with six factors were
computed, independently and jointly, including segmentation difficulties as
measured by segmentation ability score and by Dice overlap in U-Net, image
dimension, size of the target region, image modality, and contrast.
Results: The Dice overlaps from SAM were significantly lower than the five
medical-image-based algorithms in all 12 medical image segmentation datasets,
by a margin of 0.1-0.5 and even 0.6-0.7 Dice. SAM-Semantic was significantly
associated with medical image segmentation difficulty and the image modality,
and SAM-Point and SAM-Box were significantly associated with image segmentation
difficulty, image dimension, target region size, and target-vs-background
contrast. All these 3 variations of SAM were more accurate in 2D medical
images, larger target region sizes, easier cases with a higher Segmentation
Ability score and higher U-Net Dice, and higher foreground-background contrast.
- Abstract(参考訳): 背景: 2023年4月に導入されたsegment-anything model(sam)は、promiseをベンチマークモデルとして示し、さまざまな自然画像をセグメント化するユニバーサルソリューションである。
新しいデータセットごとに事前に要求された再トレーニングや微調整は行わない。
目的:各種医用画像分割作業におけるSAMの精度を検証し,その精度に影響を与える可能性のある因子について検討する。
方法:SAMは7,451名の被験者を含む12の公開医用画像セグメンテーションデータセットで試験された。
精度はアルゴリズム・セグメンテーションと接地マスクの重なりによって測定された。
SAMは、医療画像のセグメンテーションに特化した5つの最先端アルゴリズムと比較された。
セグメンテーション能力スコアとディス重なりによるu-netにおけるセグメンテーションの難易度,画像寸法,対象領域の大きさ,モダリティ,コントラストなど,samの精度と6因子の相関を独立に計算した。
結果: SAMとDiceの重なりは, 医療画像セグメンテーションデータセットの5つの画像ベースアルゴリズムよりも有意に低く, 0.1-0.5, 0.6-0.7Diceのマージンが得られた。
SAM-Semanticは画像分割困難と画像モダリティに大きく関連し,SAM-PointとSAM-Boxは画像分割困難,画像次元,ターゲット領域サイズ,ターゲット-vs-背景コントラストに大きく関連していた。
これら3種類のSAMは, 医用2次元画像, ターゲット領域の大きさ, セグメンテーション能力スコアが高く, U-NetDiceが高く, 前地上コントラストが高かった。
関連論文リスト
- BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Segment Anything Model for Medical Images? [38.44750512574108]
Segment Anything Model (SAM) は一般画像分割のための最初の基礎モデルである。
我々は18のモダリティ、84のオブジェクト、125のオブジェクトとモダリティのペアターゲット、1050Kの2Dイメージ、6033Kマスクを備えた大規模な医療セグメンテーションデータセットを構築した。
SAMはいくつかの特定のオブジェクトで顕著なパフォーマンスを示したが、不安定、不完全、あるいは他の状況で完全に失敗した。
論文 参考訳(メタデータ) (2023-04-28T07:23:31Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - Segment Anything [108.16489338211093]
私たちはこれまでで最大のセグメンテーションデータセットを構築し、1100万ライセンスのマスクを10億枚以上使用し、画像のプライバシーを尊重しています。
このモデルは、高速に撮影できるように設計および訓練されており、ゼロショットを新しい画像配信やタスクに転送することができる。
多数のタスクでその能力を評価した結果、ゼロショット性能は印象的であることが判明した。
論文 参考訳(メタデータ) (2023-04-05T17:59:46Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。