論文の概要: Slide-SAM: Medical SAM Meets Sliding Window
- arxiv url: http://arxiv.org/abs/2311.10121v1
- Date: Thu, 16 Nov 2023 10:45:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 15:51:49.660621
- Title: Slide-SAM: Medical SAM Meets Sliding Window
- Title(参考訳): Slide-SAM:医療SAMがスライディングウィンドウを発表
- Authors: Quan Quan, Fenghe Tang, Zikang Xu, Heqin Zhu, S.Kevin Zhou
- Abstract要約: Segment Anything Model (SAM) は自然画像の2次元画像分割において顕著な結果をもたらす。
SAMはスライス間のコンテキスト関係を学べない。
2D SAMを3D画像に適用するには、時間とラベルの合計であるボリューム全体を推し進める必要がある。
SAMを3次元医用画像に拡張したSlide-SAMを紹介する。
- 参考スコア(独自算出の注目度): 21.758420436652276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Model (SAM) achieves remarkable results in 2D image
segmentation of natural images. However, the huge gap between medical images
and natural images prevents it directly applied to medical image segmentation
tasks. Especially in 3D medical image, SAM cannot learn the contextual
relationship between slices, which limites application in real scenarios. In
addition, recent research shows that applying 2D SAM to 3D images requires
prompting the entire volume, which is time and label comsuming. In order to
solve the above problems, we introduced Slide-SAM which extended SAM to 3D
medical images. Specifically, you only need to use a single slice prompt to
segement the entire volume, which greatly reduces the prompt workload for
professionals. Secondly, unlike traditional 3D medical image segmentation, we
are free from the influence of computing resources and can still use high
resolution (H$ \times $W = 1024$ \times $1024) for training in 3D images to
achieve optimal learning for small targets. This is to combine the entire 3D
volume is beyond the reach of training. Finally, we collected a large number of
3D images from large-scale 3D public and private datasets, and extended SAM to
3D medical image segmentation involving bounding box and point prompts.
Finally, we perform a comprehensive evaluation and analysis investigating the
performance of Slide-SAM in medical image segmentation of different modalities,
anatomy, and organs. We have verified Slide-SAM's segmentation capabilities on
multiple datasets, achieving the most advanced 3D segmentation performance
while maintaining the minimum prompt. Code will be open source soon.
- Abstract(参考訳): Segment Anything Model (SAM) は自然画像の2次元画像分割において顕著な結果をもたらす。
しかし、医用画像と自然画像との間の大きなギャップは、医用画像分割タスクに直接適用できない。
特に3D医療画像では,SAMは実シナリオでの応用を制限するスライス間のコンテキスト関係を学習できない。
さらに、最近の研究では、2D SAMを3D画像に適用するには、時間とラベルの合計であるボリューム全体を推し進める必要があることが示されている。
以上の問題を解決するために,SAMを3次元画像に拡張したSlide-SAMを導入した。
具体的には、ボリューム全体を分離するために単一のスライスプロンプトを使用するだけで、プロの作業負荷を大幅に削減できる。
第二に、従来の3d医療画像セグメンテーションとは異なり、私たちは計算リソースの影響を受けず、小さなターゲットに対して最適な学習を達成するために3dイメージのトレーニングに高い解像度(h$ \times $w = 1024$ \times 1024)を使うことができる。
これは3Dボリューム全体をトレーニングの範囲を超えて組み合わせることである。
最後に,大規模な3Dパブリックおよびプライベートデータセットから多数の3D画像を収集し,また,境界ボックスと点プロンプトを含むSAMから3D医療画像セグメンテーションを拡張した。
最後に,異なる形態,解剖,臓器の医用画像分割におけるSlide-SAMの性能を総合的に評価し,解析を行った。
複数のデータセット上でSlide-SAMのセグメンテーション機能を検証し、最小限のプロンプトを維持しながら、最も高度な3Dセグメンテーション性能を実現した。
コードはもうすぐオープンソースになる。
関連論文リスト
- Sli2Vol+: Segmenting 3D Medical Images Based on an Object Estimation Guided Correspondence Flow Network [16.909079894023293]
3次元医用画像のアノテーション負担を軽減するために,マスク伝搬DL法を開発した。
しかし, これらの手法は, 復元誤差のスライス間伝播による誤差蓄積の傾向にある。
本研究では,3次元医用画像中の解剖学的構造を1つの注記スライスで分割するSSFを提案する。
論文 参考訳(メタデータ) (2024-11-21T06:15:43Z) - SAM2Point: Segment Any 3D as Videos in Zero-shot and Promptable Manners [87.76470518069338]
SAM2Pointは,Segment Anything Model 2 (SAM2) に適応した予備的な探索手法である。
本フレームワークは3Dポイントやボックス,マスクなど,さまざまなプロンプトタイプをサポートし,3Dオブジェクトや屋内シーン,疎外環境,生のLiDARなど,さまざまなシナリオを一般化することができる。
我々の知る限り、SAMの3Dにおける最も忠実な実装は、3Dセグメンテーションにおける将来の研究の出発点となるかもしれない。
論文 参考訳(メタデータ) (2024-08-29T17:59:45Z) - Interactive 3D Medical Image Segmentation with SAM 2 [17.523874868612577]
ビデオで訓練した次世代のMeta SAMモデルSAM 2のゼロショット機能について, 医用画像のセグメンテーションについて検討する。
3D画像のシーケンシャルな2Dスライスをビデオフレームとして扱うことで、SAM 2は単一のフレームから3Dボリューム全体へのアノテーションの完全な伝達を可能にする。
論文 参考訳(メタデータ) (2024-08-05T16:58:56Z) - Segment anything model 2: an application to 2D and 3D medical images [16.253160684182895]
Segment Anything Model (SAM) は、プロンプトが与えられた画像に様々なオブジェクトをセグメント化できるため、注目されている。
最近開発されたSAM 2は、この機能をビデオ入力に拡張した。
これにより、SAMを3D画像に適用する機会が開ける。
論文 参考訳(メタデータ) (2024-08-01T17:57:25Z) - MaskSAM: Towards Auto-prompt SAM with Mask Classification for Medical Image Segmentation [18.125292369318576]
MaskSAMは、医療画像セグメンテーションのためのマスク分類プロンプトフリー適応フレームワークである。
本手法は,AMOS2022,90.52%のDice上での最先端性能を実現し,nnUNetに比べて2.7%向上した。
論文 参考訳(メタデータ) (2024-03-21T03:28:24Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - TomoSAM: a 3D Slicer extension using SAM for tomography segmentation [62.997667081978825]
TomoSAMは、最先端のSegment Anything Model(SAM)を3Dスライダに統合するために開発された。
SAMは、オブジェクトを識別し、ゼロショットで画像マスクを作成することができる、迅速なディープラーニングモデルである。
これらのツール間のシナジーは、トモグラフィや他のイメージング技術からの複雑な3Dデータセットのセグメンテーションに役立つ。
論文 参考訳(メタデータ) (2023-06-14T16:13:27Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Segment Anything in 3D with Radiance Fields [83.14130158502493]
本稿では,Segment Anything Model (SAM) を一般化して3次元オブジェクトをセグメント化する。
提案手法をSA3D, 略してSegment Anything in 3Dと呼ぶ。
実験では,SA3Dが様々なシーンに適応し,数秒で3Dセグメンテーションを実現することを示す。
論文 参考訳(メタデータ) (2023-04-24T17:57:15Z) - SAMM (Segment Any Medical Model): A 3D Slicer Integration to SAM [6.172995387355581]
3次元スライダにおけるSAMの拡張であるSegment Any Medical Model (SAMM)を紹介する。
SAMMは完全なサイクルの0.6秒のレイテンシを実現し、ほぼリアルタイムで画像マスクを推測できる。
論文 参考訳(メタデータ) (2023-04-12T05:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。