論文の概要: DB-SAM: Delving into High Quality Universal Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2410.04172v1
- Date: Sat, 5 Oct 2024 14:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 13:41:32.287693
- Title: DB-SAM: Delving into High Quality Universal Medical Image Segmentation
- Title(参考訳): DB-SAM: 高品質のユニバーサル医療画像セグメンテーション
- Authors: Chao Qin, Jiale Cao, Huazhu Fu, Fahad Shahbaz Khan, Rao Muhammad Anwer,
- Abstract要約: 本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
- 参考スコア(独自算出の注目度): 100.63434169944853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the Segment Anything Model (SAM) has demonstrated promising segmentation capabilities in a variety of downstream segmentation tasks. However in the context of universal medical image segmentation there exists a notable performance discrepancy when directly applying SAM due to the domain gap between natural and 2D/3D medical data. In this work, we propose a dual-branch adapted SAM framework, named DB-SAM, that strives to effectively bridge this domain gap. Our dual-branch adapted SAM contains two branches in parallel: a ViT branch and a convolution branch. The ViT branch incorporates a learnable channel attention block after each frozen attention block, which captures domain-specific local features. On the other hand, the convolution branch employs a light-weight convolutional block to extract domain-specific shallow features from the input medical image. To perform cross-branch feature fusion, we design a bilateral cross-attention block and a ViT convolution fusion block, which dynamically combine diverse information of two branches for mask decoder. Extensive experiments on large-scale medical image dataset with various 3D and 2D medical segmentation tasks reveal the merits of our proposed contributions. On 21 3D medical image segmentation tasks, our proposed DB-SAM achieves an absolute gain of 8.8%, compared to a recent medical SAM adapter in the literature. The code and model are available at https://github.com/AlfredQin/DB-SAM.
- Abstract(参考訳): 最近、SAM(Segment Anything Model)は、様々な下流セグメンテーションタスクにおいて有望なセグメンテーション機能を示した。
しかし、普遍的な医用画像セグメンテーションの文脈では、自然と2D/3Dの医療データ間の領域ギャップによりSAMを直接適用する際、顕著な性能差が存在する。
本稿では,この領域のギャップを効果的に埋めるべく,DB-SAMという二分岐型SAMフレームワークを提案する。
我々の二重ブランチ適応SAMは、ViTブランチと畳み込みブランチの2つのブランチを並列に含む。
ViTブランチは、各凍結されたアテンションブロックの後、学習可能なチャネルアテンションブロックを組み込み、ドメイン固有のローカル特徴をキャプチャする。
一方、畳み込み枝は、入力された医用画像からドメイン固有の浅い特徴を抽出するために軽量な畳み込みブロックを用いる。
クロスブランチ機能融合を実現するために、マスクデコーダ用の2つの分岐の多様な情報を動的に結合する、双方向のクロスアテンションブロックとViT畳み込み融合ブロックを設計する。
様々な3次元および2次元の医用セグメンテーションタスクを用いた大規模医用画像データセットの大規模な実験により,提案したコントリビューションのメリットを明らかにした。
今回提案したDB-SAMは,21次元医用画像分割作業において,最近の医療用SAMアダプタと比較して,絶対的に8.8%向上した。
コードとモデルはhttps://github.com/AlfredQin/DB-SAMで公開されている。
関連論文リスト
- SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - Segment Anything in Medical Images and Videos: Benchmark and Deployment [8.51742337818826]
まず,11種類の医用画像モダリティとビデオを対象としたSegment Anything Model 2 (SAM2) の総合的なベンチマークを行う。
そこで我々は,転写学習パイプラインを開発し,SAM2を微調整により医療領域に迅速に適用できることを実証した。
SAM2を3Dスライサプラグインとして,Gradio APIとして実装し,効率的な3D画像とビデオセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-08-06T17:58:18Z) - Segment anything model 2: an application to 2D and 3D medical images [16.253160684182895]
Segment Anything Model (SAM) は、プロンプトが与えられた画像に様々なオブジェクトをセグメント化できるため、注目されている。
最近開発されたSAM 2は、この機能をビデオ入力に拡張した。
これにより、SAMを3D画像に適用する機会が開ける。
論文 参考訳(メタデータ) (2024-08-01T17:57:25Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - Unleashing the Potential of SAM for Medical Adaptation via Hierarchical Decoding [15.401507589312702]
本稿では,医療画像の高速微調整のためのSegment Anything Model (SAM) の即時適応であるH-SAMを紹介する。
初期段階では、H-SAMはSAMのオリジナルのデコーダを使用して、より複雑なデコードプロセスの導出として、以前の確率マスクを生成する。
我々のH-SAMは、既存のプロンプトフリーSAMよりも平均Diceが4.78%改善していることを示す。
論文 参考訳(メタデータ) (2024-03-27T05:55:16Z) - I-MedSAM: Implicit Medical Image Segmentation with Segment Anything [24.04558900909617]
提案するI-MedSAMは、連続表現とSAMの両方の利点を利用して、クロスドメイン能力と正確な境界線を求める。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および暗黙的を含む既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-28T00:43:52Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM-Med2D [34.82072231983896]
我々はSAM-Med2Dを医療用2次元画像に適用する最も包括的な研究である。
まず、公開およびプライベートデータセットから約4.6Mの画像と19.7Mマスクを収集し、キュレートします。
元のSAMのエンコーダとデコーダを微調整して、良好な性能のSAM-Med2Dを得る。
論文 参考訳(メタデータ) (2023-08-30T17:59:02Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。