論文の概要: nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance
- arxiv url: http://arxiv.org/abs/2309.16967v3
- Date: Wed, 15 May 2024 16:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 18:22:05.916252
- Title: nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance
- Title(参考訳): nnSAM: nnUNetのパフォーマンスを改善したプラグインとプレイのセグメンテーションモデル
- Authors: Yunxiang Li, Bowen Jing, Zihan Li, Jing Wang, You Zhang,
- Abstract要約: Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
- 参考スコア(独自算出の注目度): 12.169801149021566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic segmentation of medical images is crucial in modern clinical workflows. The Segment Anything Model (SAM) has emerged as a versatile tool for image segmentation without specific domain training, but it requires human prompts and may have limitations in specific domains. Traditional models like nnUNet perform automatic segmentation during inference and are effective in specific domains but need extensive domain-specific training. To combine the strengths of foundational and domain-specific models, we propose nnSAM, integrating SAM's robust feature extraction with nnUNet's automatic configuration to enhance segmentation accuracy on small datasets. Our nnSAM model optimizes two main approaches: leveraging SAM's feature extraction and nnUNet's domain-specific adaptation, and incorporating a boundary shape supervision loss function based on level set functions and curvature calculations to learn anatomical shape priors from limited data. We evaluated nnSAM on four segmentation tasks: brain white matter, liver, lung, and heart segmentation. Our method outperformed others, achieving the highest DICE score of 82.77% and the lowest ASD of 1.14 mm in brain white matter segmentation with 20 training samples, compared to nnUNet's DICE score of 79.25% and ASD of 1.36 mm. A sample size study highlighted nnSAM's advantage with fewer training samples. Our results demonstrate significant improvements in segmentation performance with nnSAM, showcasing its potential for small-sample learning in medical image segmentation.
- Abstract(参考訳): 医療画像の自動セグメンテーションは、現代の臨床ワークフローにおいて不可欠である。
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションを行う汎用ツールとして登場したが、人間のプロンプトが必要であり、特定のドメインに制限がある可能性がある。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを行い、特定のドメインで有効だが、広範なドメイン固有のトレーニングを必要とする。
基礎モデルとドメイン固有モデルの長所を組み合わせるために, SAM の頑健な特徴抽出と nnUNet の自動構成を統合して, 小さなデータセット上でのセグメンテーション精度を向上させる nnSAM を提案する。
我々の nnSAM モデルは,SAM の特徴抽出と nnUNet のドメイン固有適応の2つの主要なアプローチを最適化し,レベルセット関数と曲率計算に基づく境界形状監視損失関数を組み込んで,限られたデータから解剖学的形状の事前学習を行う。
脳白質,肝,肺,心臓の4つのセグメンテーション課題についてnnSAMを評価した。
DICEスコアが82.77%, ASDが1.14mm, トレーニング標本が20例, nnUNetのDICEスコアが79.25%, ASDが1.36mmであったのに対し, DICEスコアが82.77%, ASDが1.14mmであった。
サンプルサイズの調査では、より少ないトレーニングサンプルでnnSAMの利点を強調した。
以上の結果より, nnSAMによるセグメンテーション性能は有意に向上し, 医用画像セグメンテーションにおけるスモールサンプル学習の可能性を示した。
関連論文リスト
- Zero-shot capability of SAM-family models for bone segmentation in CT scans [1.6018376109260821]
骨CTセグメント化のためのSAM- Family モデルのゼロショット機能をテストするために,非刺激的,最適' なプロンプト戦略を用いている。
結果から,最適設定はモデルの種類やサイズ,データセットの特徴,最適化対象などに依存することがわかった。
論文 参考訳(メタデータ) (2024-11-13T14:16:22Z) - K-SAM: A Prompting Method Using Pretrained U-Net to Improve Zero Shot Performance of SAM on Lung Segmentation in CXR Images [0.0]
肺領域分割作業におけるSAMのゼロショット性能を自動的プロンプト選択により向上させるアルゴリズムを提案する。
提案手法は,事前学習したモデルを用いて迅速な選択を行うことで,SAMの印象的な一般化能力を最大限に活用できることを示唆する。
論文 参考訳(メタデータ) (2024-10-09T12:37:12Z) - Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Unleashing the Power of Generic Segmentation Models: A Simple Baseline for Infrared Small Target Detection [57.666055329221194]
本稿では,Segment Anything Model (SAM) などのジェネリックセグメンテーションモデルの赤外線小物体検出タスクへの適応について検討する。
提案モデルでは,既存の手法と比較して,精度とスループットの両方で性能が大幅に向上した。
論文 参考訳(メタデータ) (2024-09-07T05:31:24Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - How to build the best medical image segmentation algorithm using foundation models: a comprehensive empirical study with Segment Anything Model [12.051904886550956]
この研究は、様々なバックボーンアーキテクチャ、モデルコンポーネント、および18の組み合わせにわたる微調整アルゴリズムによる既存の微調整戦略をまとめたものである。
一般的な放射線学のモダリティを網羅した17のデータセットで評価した。
コードとMRI特有の微調整ウェイトをリリースし、元のSAMよりも一貫して優れた性能を得た。
論文 参考訳(メタデータ) (2024-04-15T17:31:32Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Path: A Segment Anything Model for Semantic Segmentation in Digital
Pathology [28.62539784951823]
Segment Anything Model (SAM) のような基礎モデルは、最近セグメンテーションタスクで普遍的に使用されるように提案されている。
そこで本研究では,学習可能なクラスプロンプトを導入し,また病理基盤モデルの導入によりさらなる拡張を行うことによって,SAMをセマンティックセマンティックセマンティックセマンティクスに適用する。
我々のフレームワークSAM-Pathは、人間の入力プロンプトを使わずに、デジタル病理のセマンティックセマンティックセグメンテーションを行うSAMの能力を高める。
論文 参考訳(メタデータ) (2023-07-12T20:15:25Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。