論文の概要: Self-Prompt SAM: Medical Image Segmentation via Automatic Prompt SAM Adaptation
- arxiv url: http://arxiv.org/abs/2502.00630v1
- Date: Sun, 02 Feb 2025 02:42:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:42.025805
- Title: Self-Prompt SAM: Medical Image Segmentation via Automatic Prompt SAM Adaptation
- Title(参考訳): セルフプロンプトSAM:自動プロンプトSAM適応による医用画像セグメンテーション
- Authors: Bin Xie, Hao Tang, Dawen Cai, Yan Yan, Gady Agam,
- Abstract要約: Segment Anything Model (SAM)は印象的なゼロショット性能を示した。
本稿では,医療画像セグメンテーションのための新しいセルフプロンプトSAM適応フレームワーク,Self-Prompt-SAMを提案する。
本手法は,AMOS2022ではnUNetが2.3%,ACDCでは1.6%,Synapseデータセットでは0.5%に向上する。
- 参考スコア(独自算出の注目度): 14.821036063099458
- License:
- Abstract: Segment Anything Model (SAM) has demonstrated impressive zero-shot performance and brought a range of unexplored capabilities to natural image segmentation tasks. However, as a very important branch of image segmentation, the performance of SAM remains uncertain when applied to medical image segmentation due to the significant differences between natural images and medical images. Meanwhile, it is harsh to meet the SAM's requirements of extra prompts provided, such as points or boxes to specify medical regions. In this paper, we propose a novel self-prompt SAM adaptation framework for medical image segmentation, named Self-Prompt-SAM. We design a multi-scale prompt generator combined with the image encoder in SAM to generate auxiliary masks. Then, we use the auxiliary masks to generate bounding boxes as box prompts and use Distance Transform to select the most central points as point prompts. Meanwhile, we design a 3D depth-fused adapter (DfusedAdapter) and inject the DFusedAdapter into each transformer in the image encoder and mask decoder to enable pre-trained 2D SAM models to extract 3D information and adapt to 3D medical images. Extensive experiments demonstrate that our method achieves state-of-the-art performance and outperforms nnUNet by 2.3% on AMOS2022, 1.6% on ACDCand 0.5% on Synapse datasets.
- Abstract(参考訳): Segment Anything Model (SAM)は印象的なゼロショット性能を示し、自然画像のセグメンテーションタスクに様々な未探索機能をもたらした。
しかし, 画像セグメンテーションの極めて重要な分野として, 天然画像と医用画像との有意差により, SAMの性能が不確かである。
一方、SAMが医療地域を特定するためのポイントやボックスなどの追加のプロンプトの要求を満たすことは厳しい。
本稿では,医療画像セグメンテーションのための新しいセルフプロンプトSAM適応フレームワーク,Self-prompt-SAMを提案する。
我々はSAMのイメージエンコーダと組み合わされたマルチスケールプロンプトジェネレータを設計し、補助マスクを生成する。
次に、補助マスクを用いてボックスプロンプトとしてバウンディングボックスを生成し、距離変換を用いてポイントプロンプトとして最も中心的なポイントを選択する。
一方,画像エンコーダとマスクデコーダの各トランスにDFusedAdapterを注入し,事前学習した2次元SAMモデルにより3次元情報を抽出し,医用画像に適応させる3次元深度拡散アダプタ(DfusedAdapter)を設計する。
AMOS2022ではnUNetが2.3%,ACDCでは1.6%,Synapseデータセットでは0.5%向上した。
関連論文リスト
- RefSAM3D: Adapting SAM with Cross-modal Reference for 3D Medical Image Segmentation [17.69664156349825]
Segment Anything Model(SAM)は、2Dの自然画像のグローバルなパターンを捉えるのに優れています。
本稿では,3次元画像アダプティブと相互参照プロンプト生成を組み込むことにより,SAMを3次元医用画像に適応させるRefSAM3Dを紹介する。
医療画像における複雑な解剖学的構造を正確に区分する上で,SAMの応用を推し進めた。
論文 参考訳(メタデータ) (2024-12-07T10:22:46Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - MaskSAM: Towards Auto-prompt SAM with Mask Classification for Medical Image Segmentation [18.125292369318576]
MaskSAMは、医療画像セグメンテーションのためのマスク分類プロンプトフリー適応フレームワークである。
本手法は,AMOS2022,90.52%のDice上での最先端性能を実現し,nnUNetに比べて2.7%向上した。
論文 参考訳(メタデータ) (2024-03-21T03:28:24Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AutoProSAM: Automated Prompting SAM for 3D Multi-Organ Segmentation [11.149807995830255]
Segment Anything Model (SAM)は、画像セグメンテーションのための先駆的なプロンプトベースの基礎モデルの一つである。
近年の研究では、SAMはもともと2次元の自然画像用に設計されており、3次元の医用画像分割作業に最適化されていることが示されている。
本稿では,これらの課題を克服するため,AutoProSAMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T23:23:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。