論文の概要: Customized Segment Anything Model for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2304.13785v1
- Date: Wed, 26 Apr 2023 19:05:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 15:21:03.806009
- Title: Customized Segment Anything Model for Medical Image Segmentation
- Title(参考訳): 医用画像分割のためのsegment anythingモデル
- Authors: Kaidong Zhang and Dong Liu
- Abstract要約: 我々は,大規模画像分割モデルであるSAM(Segment Anything Model)に基づいて,医用画像分割のための大規模モデルをカスタマイズする新たな研究パラダイムを探求する。
SAMedは、SAMイメージエンコーダにローランクベース(LoRA)ファインタニング戦略を適用し、ラベル付き医用画像セグメンテーションデータセットにプロンプトエンコーダとマスクデコーダを併用する。
我々の訓練されたSAMedモデルは,最先端の手法に匹敵する医用画像のセマンティックセグメンテーションを実現する。
- 参考スコア(独自算出の注目度): 11.423982526879582
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose SAMed, a general solution for medical image segmentation.
Different from the previous methods, SAMed is built upon the large-scale image
segmentation model, Segment Anything Model (SAM), to explore the new research
paradigm of customizing large-scale models for medical image segmentation.
SAMed applies the low-rank-based (LoRA) finetuning strategy to the SAM image
encoder and finetunes it together with the prompt encoder and the mask decoder
on labeled medical image segmentation datasets. We also observe the warmup
finetuning strategy and the AdamW optimizer lead SAMed to successful
convergence and lower loss. Different from SAM, SAMed could perform semantic
segmentation on medical images. Our trained SAMed model achieves 81.88 DSC and
20.64 HD on the Synapse multi-organ segmentation dataset, which is on par with
the state-of-the-art methods. We conduct extensive experiments to validate the
effectiveness of our design. Since SAMed only updates a small fraction of the
SAM parameters, its deployment cost and storage cost are quite marginal in
practical usage. The code of SAMed is available at
https://github.com/hitachinsk/SAMed.
- Abstract(参考訳): 医療画像セグメンテーションのための一般的なソリューションであるSAMedを提案する。
従来の方法とは違って,SAMedは大規模画像分割モデルであるSAMment Anything Model(Segment Anything Model)に基づいて,医用画像分割のための大規模モデルをカスタマイズする新たな研究パラダイムを探求する。
SAMedは、SAMイメージエンコーダにローランクベース(LoRA)ファインタニング戦略を適用し、ラベル付き医用画像セグメンテーションデータセットにプロンプトエンコーダとマスクデコーダを併用する。
また,AdamWオプティマイザリードとウォームアップ微調整戦略も観察し,収束と損失低減に寄与した。
SAMと異なり、SAMedは医療画像のセマンティックセグメンテーションを行うことができる。
訓練されたSAMedモデルでは,Synapseのマルチオーガニックセグメンテーションデータセット上で,81.88 DSCと20.64 HDを実現している。
設計の有効性を検証するための広範な実験を行う。
SAMedはSAMパラメータのごく一部しか更新しないため、そのデプロイコストとストレージコストは実用的には極めて少ない。
SAMedのコードはhttps://github.com/hitachinsk/SAMedで公開されている。
関連論文リスト
- SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。