論文の概要: SimSAM: Zero-shot Medical Image Segmentation via Simulated Interaction
- arxiv url: http://arxiv.org/abs/2406.00663v1
- Date: Sun, 2 Jun 2024 08:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:56:22.789974
- Title: SimSAM: Zero-shot Medical Image Segmentation via Simulated Interaction
- Title(参考訳): SimSAM: シミュレーションインタラクションによるゼロショット医療画像セグメンテーション
- Authors: Benjamin Towle, Xin Chen, Ke Zhou,
- Abstract要約: textbfSimulated Interaction for textbfSegment textbfAnything textbfModel (textsctextbfSimSAM) を導入する。
提案手法は,ゼロショットSAMと比較して,輪郭セグメンテーション精度が最大15.5%向上することがわかった。
- 参考スコア(独自算出の注目度): 8.525516300734024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recently released Segment Anything Model (SAM) has shown powerful zero-shot segmentation capabilities through a semi-automatic annotation setup in which the user can provide a prompt in the form of clicks or bounding boxes. There is growing interest around applying this to medical imaging, where the cost of obtaining expert annotations is high, privacy restrictions may limit sharing of patient data, and model generalisation is often poor. However, there are large amounts of inherent uncertainty in medical images, due to unclear object boundaries, low-contrast media, and differences in expert labelling style. Currently, SAM is known to struggle in a zero-shot setting to adequately annotate the contours of the structure of interest in medical images, where the uncertainty is often greatest, thus requiring significant manual correction. To mitigate this, we introduce \textbf{Sim}ulated Interaction for \textbf{S}egment \textbf{A}nything \textbf{M}odel (\textsc{\textbf{SimSAM}}), an approach that leverages simulated user interaction to generate an arbitrary number of candidate masks, and uses a novel aggregation approach to output the most compatible mask. Crucially, our method can be used during inference directly on top of SAM, without any additional training requirement. Quantitatively, we evaluate our method across three publicly available medical imaging datasets, and find that our approach leads to up to a 15.5\% improvement in contour segmentation accuracy compared to zero-shot SAM. Our code is available at \url{https://github.com/BenjaminTowle/SimSAM}.
- Abstract(参考訳): 先日リリースされたSegment Anything Model(SAM)は、半自動アノテーション設定を通じて、クリックやバウンディングボックスという形でプロンプトを提供する、強力なゼロショットセグメンテーション機能を示している。
専門的なアノテーションを取得するコストが高く、プライバシの制限によって患者のデータの共有が制限され、モデル一般化が不十分な場合が多いため、医療画像に適用することへの関心が高まっている。
しかし、不明瞭な対象境界、低コントラストメディア、専門家のラベル付けスタイルの違いなど、医用画像に固有の不確実性が多数存在する。
現在SAMは、不確実性が最も大きい医療画像の構造の輪郭を適切に注釈付けするために、ゼロショット設定で苦労していることが知られている。
これを軽減するために、シミュレーションされたユーザインタラクションを活用して任意の数の候補マスクを生成するアプローチである \textbf{Sim}ulated Interaction for \textbf{S}egment \textbf{A}nything \textbf{M}odel (\textsc{\textbf{SimSAM}})を紹介する。
重要なことに,本手法はSAM上で直接推論を行う際に,追加のトレーニングを必要とせずに利用できる。
本手法は,3つの医用画像データセットに対して定量的に評価し,ゼロショットSAMと比較して,輪郭区分け精度が最大15.5倍に向上することが確認された。
私たちのコードは \url{https://github.com/BenjaminTowle/SimSAM} で利用可能です。
関連論文リスト
- SAM-MPA: Applying SAM to Few-shot Medical Image Segmentation using Mask Propagation and Auto-prompting [6.739803086387235]
医用画像のセグメンテーションは、しばしば高額なアノテーションコストの課題に直面している。
本稿では,10億枚以上のマスクで事前学習したセグメンション・アプライシング・モデル(SAM)を活用することを提案する。
SAM-MPA は,医療画像の断片化のためのイノベーティブな SAM ベースのフレームワークである。
論文 参考訳(メタデータ) (2024-11-26T12:12:12Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Automating MedSAM by Learning Prompts with Weak Few-Shot Supervision [10.609371657347806]
本研究は,入力プロンプトの条件付けを,画像埋め込みから直接プロンプト埋め込みを学習する軽量モジュールに置き換えることを提案する。
本手法は,医療用画像に微調整したSAMのバージョンであるMedSAMを用いて検証した。
論文 参考訳(メタデータ) (2024-09-30T13:53:01Z) - Medical Image Segmentation with SAM-generated Annotations [12.432602118806573]
医療データのアノテーションツールとしてSegment Anything Model(SAM)の性能を評価する。
我々は,MSD (Medicical Decathlon) のCT (Computerd tomography) タスク上で,いわゆる「擬似ラベル」を生成する。
擬似ラベルは、弱教師付きでUNetモデルをトレーニングするために、地上の真理ラベルの代わりに使用される。
論文 参考訳(メタデータ) (2024-09-30T12:43:20Z) - Swin-LiteMedSAM: A Lightweight Box-Based Segment Anything Model for Large-Scale Medical Image Datasets [0.6827423171182151]
我々はLiteMedSAMの新しい変種であるSwin-LiteMedSAMを紹介する。
このモデルは、小さなSwin Transformerをイメージエンコーダとして統合し、複数の種類のプロンプトを組み込み、イメージエンコーダとマスクデコーダの間のスキップ接続を確立する。
textitSegment Anything in Medical Images on Laptop Challenge (CVPR 2024)では,セグメンテーション性能と速度のバランスが良好である。
論文 参考訳(メタデータ) (2024-09-11T10:35:42Z) - BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AdaptiveSAM: Towards Efficient Tuning of SAM for Surgical Scene
Segmentation [49.59991322513561]
本稿では,新しいデータセットに迅速かつ効率的に適応できるSegment-Anything(SAM)の適応的な修正を提案する。
AdaptiveSAMは、フリーフォームテキストをプロンプトとして使用し、ラベル名のみをプロンプトとして、興味のあるオブジェクトをセグメント化することができる。
実験の結果,AdaptiveSAMは様々な医用画像データセットの最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-07T17:12:54Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - SAM on Medical Images: A Comprehensive Study on Three Prompt Modes [12.42280534113305]
Segment Anything Model(SAM)が最近デビューし、多くの研究者がゼロショットの一般化能力の観点からその可能性と限界を探究した。
本稿では,SAMが医用画像分割タスクの基礎モデルになる可能性について評価する。
また、異なるモダリティを持つ最高のゼロショットパフォーマンスに、どのようなプロンプトが導くかについても検討する。
論文 参考訳(メタデータ) (2023-04-28T18:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。