論文の概要: nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance
- arxiv url: http://arxiv.org/abs/2309.16967v2
- Date: Mon, 2 Oct 2023 18:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 09:10:13.206800
- Title: nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance
- Title(参考訳): nnSAM: nnUNetのパフォーマンスを改善するプラグインとプレイのセグメンテーションモデル
- Authors: Yunxiang Li, Bowen Jing, Zihan Li, Jing Wang, You Zhang
- Abstract要約: 本稿では SAM モデルと nnUNet モデルを統合し,より正確で堅牢な医用画像分割を実現する nnSAM を提案する。
nnSAMは、医療画像セグメンテーションの潜在的な新しいベンチマークとして、幅広い適用性と特殊な効率性を組み合わせたツールを提供している。
- 参考スコア(独自算出の注目度): 13.056321925093792
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent developments of foundation models in computer vision, especially
the Segment Anything Model (SAM), allow scalable and domain-agnostic image
segmentation to serve as a general-purpose segmentation tool. In parallel, the
field of medical image segmentation has benefited significantly from
specialized neural networks like the nnUNet, which is trained on
domain-specific datasets and can automatically configure the network to tailor
to specific segmentation challenges. To combine the advantages of foundation
models and domain-specific models, we present nnSAM, which synergistically
integrates the SAM model with the nnUNet model to achieve more accurate and
robust medical image segmentation. The nnSAM model leverages the powerful and
robust feature extraction capabilities of SAM, while harnessing the automatic
configuration capabilities of nnUNet to promote dataset-tailored learning. Our
comprehensive evaluation of nnSAM model on different sizes of training samples
shows that it allows few-shot learning, which is highly relevant for medical
image segmentation where high-quality, annotated data can be scarce and costly
to obtain. By melding the strengths of both its predecessors, nnSAM positions
itself as a potential new benchmark in medical image segmentation, offering a
tool that combines broad applicability with specialized efficiency. The code is
available at https://github.com/Kent0n-Li/Medical-Image-Segmentation.
- Abstract(参考訳): 最近のコンピュータビジョンの基礎モデル、特にsegment anything model(sam)の開発により、スケーラブルでドメインに依存しない画像セグメンテーションが汎用セグメンテーションツールとして機能する。
並行して、医療画像セグメンテーションの分野は、ドメイン固有のデータセットに基づいてトレーニングされ、特定のセグメンテーション課題に合わせて自動的にネットワークを設定するnnUNetのような特殊なニューラルネットワークから大きな恩恵を受けている。
基礎モデルとドメイン固有モデルの利点を組み合わせるために, SAMモデルをnnUNetモデルと相乗的に統合し, より正確で堅牢な医用画像セグメンテーションを実現するnnSAMを提案する。
nnSAMモデルは、SAMの強力で堅牢な特徴抽出機能を活用すると同時に、nnUNetの自動設定機能を活用して、データセットに適した学習を促進する。
トレーニングサンプルの大きさの異なるnnSAMモデルを総合的に評価した結果,高品質で注釈付きデータが少ない医療画像のセグメンテーションに高い関連性を持つ少数ショット学習が可能であることが示唆された。
両方の前任者の強みを融合させることで、nnSAMは医療画像セグメンテーションの新しいベンチマークとして自らを位置づけ、幅広い応用性と特殊な効率性を組み合わせたツールを提供する。
コードはhttps://github.com/Kent0n-Li/Medical-Image-Segmentationで公開されている。
関連論文リスト
- Rotated Multi-Scale Interaction Network for Referring Remote Sensing
Image Segmentation [66.31941110777734]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Segment Anything Model-guided Collaborative Learning Network for
Scribble-supervised Polyp Segmentation [45.15517909664628]
ポリープのセグメンテーションは、初期におけるポリープの正確な位置決定に重要な役割を担っている。
診断中の医師によるポリープ画像に対するピクセルワイドアノテーションは、時間と費用の両方がかかる。
本稿では,スクリブル制御ポリプセグメンテーションのためのSAM誘導協調学習ネットワーク(SAM-CLNet)を提案する。
論文 参考訳(メタデータ) (2023-12-01T03:07:13Z) - Zero-Shot Segmentation of Eye Features Using the Segment Anything Model
(SAM) [9.150553995510217]
Segment Anything Model (SAM)は、画像セグメンテーションのための最初の基礎モデルである。
本研究では,VR機器で記録された視線画像から特徴を分割するSAMの能力を評価する。
我々の調査はSAMのゼロショット学習能力と、バウンディングボックスやポイントクリックのようなプロンプトの有効性に焦点を当てている。
論文 参考訳(メタデータ) (2023-11-14T11:05:08Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Self-Prompting Large Vision Models for Few-Shot Medical Image
Segmentation [14.135249795318591]
本稿では,医療ビジョン応用における自己プロンプトの新たな視点を提案する。
我々は、Segment Anything Modelの埋め込み空間を利用して、単純だが効果的な線形ピクセルワイド分類器を通して自身を誘導する。
複数のデータセットで競合する結果を得る。
論文 参考訳(メタデータ) (2023-08-15T08:20:07Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Ladder Fine-tuning approach for SAM integrating complementary network [5.46706034286531]
医用画像では、プライバシー問題やその他の要因によるトレーニングサンプルの欠如が、これらの一般化されたモデルを医用画像分割タスクに適用する上で大きな課題となっている。
本研究では、医用画像分割のための標準SAMネットワークとともに、補完的な畳み込みニューラルネットワーク(CNN)を提案する。
この戦略は、トレニッヒ時間を著しく短縮し、公開データセット上での競合的な結果を達成する。
論文 参考訳(メタデータ) (2023-06-22T08:36:17Z) - Learnable Weight Initialization for Volumetric Medical Image
Segmentation [54.1807206010136]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - SAMRS: Scaling-up Remote Sensing Segmentation Dataset with Segment
Anything Model [85.85899655118087]
我々はSAMRSと呼ばれる大規模RSセグメンテーションデータセットを生成するための効率的なパイプラインを開発する。
SAMRSは完全に105,090の画像と1,668,241のインスタンスを持ち、既存の高解像度RSセグメンテーションデータセットを数桁上回っている。
論文 参考訳(メタデータ) (2023-05-03T10:58:07Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。