論文の概要: Slide-SAM: Medical SAM Meets Sliding Window
- arxiv url: http://arxiv.org/abs/2311.10121v1
- Date: Thu, 16 Nov 2023 10:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 15:51:49.660621
- Title: Slide-SAM: Medical SAM Meets Sliding Window
- Title(参考訳): Slide-SAM:医療SAMがスライディングウィンドウを発表
- Authors: Quan Quan, Fenghe Tang, Zikang Xu, Heqin Zhu, S.Kevin Zhou
- Abstract要約: Segment Anything Model (SAM) は自然画像の2次元画像分割において顕著な結果をもたらす。
SAMはスライス間のコンテキスト関係を学べない。
2D SAMを3D画像に適用するには、時間とラベルの合計であるボリューム全体を推し進める必要がある。
SAMを3次元医用画像に拡張したSlide-SAMを紹介する。
- 参考スコア(独自算出の注目度): 21.758420436652276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Model (SAM) achieves remarkable results in 2D image
segmentation of natural images. However, the huge gap between medical images
and natural images prevents it directly applied to medical image segmentation
tasks. Especially in 3D medical image, SAM cannot learn the contextual
relationship between slices, which limites application in real scenarios. In
addition, recent research shows that applying 2D SAM to 3D images requires
prompting the entire volume, which is time and label comsuming. In order to
solve the above problems, we introduced Slide-SAM which extended SAM to 3D
medical images. Specifically, you only need to use a single slice prompt to
segement the entire volume, which greatly reduces the prompt workload for
professionals. Secondly, unlike traditional 3D medical image segmentation, we
are free from the influence of computing resources and can still use high
resolution (H$ \times $W = 1024$ \times $1024) for training in 3D images to
achieve optimal learning for small targets. This is to combine the entire 3D
volume is beyond the reach of training. Finally, we collected a large number of
3D images from large-scale 3D public and private datasets, and extended SAM to
3D medical image segmentation involving bounding box and point prompts.
Finally, we perform a comprehensive evaluation and analysis investigating the
performance of Slide-SAM in medical image segmentation of different modalities,
anatomy, and organs. We have verified Slide-SAM's segmentation capabilities on
multiple datasets, achieving the most advanced 3D segmentation performance
while maintaining the minimum prompt. Code will be open source soon.
- Abstract(参考訳): Segment Anything Model (SAM) は自然画像の2次元画像分割において顕著な結果をもたらす。
しかし、医用画像と自然画像との間の大きなギャップは、医用画像分割タスクに直接適用できない。
特に3D医療画像では,SAMは実シナリオでの応用を制限するスライス間のコンテキスト関係を学習できない。
さらに、最近の研究では、2D SAMを3D画像に適用するには、時間とラベルの合計であるボリューム全体を推し進める必要があることが示されている。
以上の問題を解決するために,SAMを3次元画像に拡張したSlide-SAMを導入した。
具体的には、ボリューム全体を分離するために単一のスライスプロンプトを使用するだけで、プロの作業負荷を大幅に削減できる。
第二に、従来の3d医療画像セグメンテーションとは異なり、私たちは計算リソースの影響を受けず、小さなターゲットに対して最適な学習を達成するために3dイメージのトレーニングに高い解像度(h$ \times $w = 1024$ \times 1024)を使うことができる。
これは3Dボリューム全体をトレーニングの範囲を超えて組み合わせることである。
最後に,大規模な3Dパブリックおよびプライベートデータセットから多数の3D画像を収集し,また,境界ボックスと点プロンプトを含むSAMから3D医療画像セグメンテーションを拡張した。
最後に,異なる形態,解剖,臓器の医用画像分割におけるSlide-SAMの性能を総合的に評価し,解析を行った。
複数のデータセット上でSlide-SAMのセグメンテーション機能を検証し、最小限のプロンプトを維持しながら、最も高度な3Dセグメンテーション性能を実現した。
コードはもうすぐオープンソースになる。
関連論文リスト
- MaskSAM: Towards Auto-prompt SAM with Mask Classification for Medical Image Segmentation [18.125292369318576]
MaskSAMは、医療画像セグメンテーションのためのマスク分類プロンプトフリー適応フレームワークである。
本手法は,AMOS2022,90.52%のDice上での最先端性能を実現し,nnUNetに比べて2.7%向上した。
論文 参考訳(メタデータ) (2024-03-21T03:28:24Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - False Negative/Positive Control for SAM on Noisy Medical Images [10.654917277821495]
Segment Anything Model (SAM) は画像セグメンテーションのための全範囲基盤モデルである。
医療画像のセグメンテーションにおけるSAMの性能向上を目的とした改良されたテストフェーズプロンプト拡張手法を提案する。
ノイズの多い低コントラストの医用画像においても,SAMの有効利用が可能となった。
論文 参考訳(メタデータ) (2023-08-20T23:01:46Z) - TomoSAM: a 3D Slicer extension using SAM for tomography segmentation [62.997667081978825]
TomoSAMは、最先端のSegment Anything Model(SAM)を3Dスライダに統合するために開発された。
SAMは、オブジェクトを識別し、ゼロショットで画像マスクを作成することができる、迅速なディープラーニングモデルである。
これらのツール間のシナジーは、トモグラフィや他のイメージング技術からの複雑な3Dデータセットのセグメンテーションに役立つ。
論文 参考訳(メタデータ) (2023-06-14T16:13:27Z) - SAM3D: Segment Anything in 3D Scenes [33.57040455422537]
本稿では,RGB画像のSegment-Anything Model(SAM)を利用して3次元点雲のマスクを予測できる新しいフレームワークを提案する。
RGB画像が配置された3Dシーンの点雲に対して、まずRGB画像のセグメンテーションマスクをSAMで予測し、2Dマスクを3Dポイントに投影する。
我々のアプローチはScanNetデータセットを用いて実験し、SAM3Dがトレーニングや微調整なしに合理的かつきめ細かな3Dセグメンテーション結果が得られることを示した。
論文 参考訳(メタデータ) (2023-06-06T17:59:51Z) - SAD: Segment Any RGBD [54.24917975958583]
Segment Anything Model (SAM)は、2D RGB画像の任意の部分のセグメント化の有効性を実証している。
本稿では,画像から直接幾何学情報を抽出するSegment Any RGBD (SAD) モデルを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:26:56Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything in 3D with Radiance Fields [83.14130158502493]
本稿では,Segment Anything Model (SAM) を一般化して3次元オブジェクトをセグメント化する。
提案手法をSA3D, 略してSegment Anything in 3Dと呼ぶ。
実験では,SA3Dが様々なシーンに適応し,数秒で3Dセグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-04-24T17:57:15Z) - SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM [6.172995387355581]
3次元スライダにおけるSAMの拡張であるSegment Any Medical Model (SAMM)を紹介する。
SAMMは完全なサイクルの0.6秒のレイテンシを実現し、ほぼリアルタイムで画像マスクを推測できる。
論文 参考訳(メタデータ) (2023-04-12T05:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。