論文の概要: Segment Anything Model for Medical Image Analysis: an Experimental Study
- arxiv url: http://arxiv.org/abs/2304.10517v3
- Date: Wed, 17 May 2023 17:20:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 19:30:29.343302
- Title: Segment Anything Model for Medical Image Analysis: an Experimental Study
- Title(参考訳): 医用画像解析のためのsegment anythingモデル--実験的検討
- Authors: Maciej A. Mazurowski, Haoyu Dong, Hanxue Gu, Jichen Yang, Nicholas
Konz, Yixin Zhang
- Abstract要約: Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
- 参考スコア(独自算出の注目度): 19.95972201734614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training segmentation models for medical images continues to be challenging
due to the limited availability of data annotations. Segment Anything Model
(SAM) is a foundation model that is intended to segment user-defined objects of
interest in an interactive manner. While the performance on natural images is
impressive, medical image domains pose their own set of challenges. Here, we
perform an extensive evaluation of SAM's ability to segment medical images on a
collection of 19 medical imaging datasets from various modalities and
anatomies. We report the following findings: (1) SAM's performance based on
single prompts highly varies depending on the dataset and the task, from
IoU=0.1135 for spine MRI to IoU=0.8650 for hip X-ray. (2) Segmentation
performance appears to be better for well-circumscribed objects with prompts
with less ambiguity and poorer in various other scenarios such as the
segmentation of brain tumors. (3) SAM performs notably better with box prompts
than with point prompts. (4) SAM outperforms similar methods RITM, SimpleClick,
and FocalClick in almost all single-point prompt settings. (5) When
multiple-point prompts are provided iteratively, SAM's performance generally
improves only slightly while other methods' performance improves to the level
that surpasses SAM's point-based performance. We also provide several
illustrations for SAM's performance on all tested datasets, iterative
segmentation, and SAM's behavior given prompt ambiguity. We conclude that SAM
shows impressive zero-shot segmentation performance for certain medical imaging
datasets, but moderate to poor performance for others. SAM has the potential to
make a significant impact in automated medical image segmentation in medical
imaging, but appropriate care needs to be applied when using it.
- Abstract(参考訳): 医療画像のセグメンテーションモデルは、データアノテーションの可用性が限られているため、いまだに困難である。
Segment Anything Model (SAM)は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
自然画像のパフォーマンスは印象的だが、医療画像領域には独自の課題がある。
本稿では,様々な形態や解剖から19の医用画像データセットを収集し,医療画像のセグメンテーションを行うsamの能力を広範囲に評価した。
1) 単一プロンプトによるsamの性能は, iou=0.1135, iou=0.8650, hip x線, iou=0.1135, iou=0.8650まで, データセットや課題によって大きく異なる。
2)脳腫瘍のセグメンテーションなど他の様々なシナリオでは,曖昧さの少ないプロンプトとより貧弱なプロンプトにより,セグメンテーション性能が向上した。
(3)SAMはポイントプロンプトよりもボックスプロンプトの方が優れている。
(4)SAMは、RITM、SimpleClick、FocalClickのようなメソッドをほぼすべての単一ポイントプロンプト設定で上回る。
(5) 複数のポイントプロンプトが反復的に提供される場合、SAMのパフォーマンスは一般的にわずかに改善されるが、他のメソッドのパフォーマンスはSAMのポイントベースのパフォーマンスを上回るレベルに改善される。
また、テストされたすべてのデータセットにおけるSAMのパフォーマンス、反復的なセグメンテーション、そしてすぐにあいまいさを与えるSAMの振る舞いについて、いくつかのイラストを提供している。
SAMは、特定の医用画像データセットに対して、印象的なゼロショットセグメンテーション性能を示すが、他者にとっては適度に低い性能を示す。
SAMは、医療画像の自動画像分割において大きな影響を与える可能性があるが、それを使用する際に適切なケアを適用する必要がある。
関連論文リスト
- DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Is SAM 2 Better than SAM in Medical Image Segmentation? [0.6144680854063939]
Segment Anything Model (SAM) は、自然画像上のゼロショットプロンプト可能なセグメンテーションにおいて、印象的な性能を示した。
先日リリースされたSegment Anything Model 2 (SAM2)は、SAMを画像で上回り、モデルの能力をビデオセグメンテーションに拡張したと主張している。
SAM と SAM 2 の性能を比較するために,複数のデータセットを用いて広範囲にわたる研究を行った。
論文 参考訳(メタデータ) (2024-08-08T04:34:29Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - When SAM Meets Medical Images: An Investigation of Segment Anything
Model (SAM) on Multi-phase Liver Tumor Segmentation [4.154974672747996]
Segment Anything Model (SAM) は重要なゼロショット画像セグメンテーションを実行する。
医療画像解析におけるSAMの有用性について検討した。
論文 参考訳(メタデータ) (2023-04-17T16:02:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。