論文の概要: SAM4EM: Efficient memory-based two stage prompt-free segment anything model adapter for complex 3D neuroscience electron microscopy stacks
- arxiv url: http://arxiv.org/abs/2504.21544v1
- Date: Wed, 30 Apr 2025 11:38:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 19:09:49.232907
- Title: SAM4EM: Efficient memory-based two stage prompt-free segment anything model adapter for complex 3D neuroscience electron microscopy stacks
- Title(参考訳): SAM4EM: 複雑な3次元神経科学電子顕微鏡スタックのための効率的なメモリベース2段階プロンプトフリーセグメントモデルアダプター
- Authors: Uzair Shah, Marco Agus, Daniya Boges, Vanessa Chiappini, Mahmood Alzubaidi, Jens Schneider, Markus Hadwiger, Pierre J. Magistretti, Mowafa Househ, Corrado Calı,
- Abstract要約: 我々は、電子顕微鏡(EM)データにおける複雑な神経構造の3次元分割のための新しいアプローチSAM4EMを提案する。
コントリビューションには、2段マスクデコードを用いたSAM用プロンプトフリーアダプタの開発が含まれている。
宇宙のプロセスとシナプスのセグメンテーションのためのユニークなベンチマークデータセットをリリースする。
- 参考スコア(独自算出の注目度): 6.277236040603983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present SAM4EM, a novel approach for 3D segmentation of complex neural structures in electron microscopy (EM) data by leveraging the Segment Anything Model (SAM) alongside advanced fine-tuning strategies. Our contributions include the development of a prompt-free adapter for SAM using two stage mask decoding to automatically generate prompt embeddings, a dual-stage fine-tuning method based on Low-Rank Adaptation (LoRA) for enhancing segmentation with limited annotated data, and a 3D memory attention mechanism to ensure segmentation consistency across 3D stacks. We further release a unique benchmark dataset for the segmentation of astrocytic processes and synapses. We evaluated our method on challenging neuroscience segmentation benchmarks, specifically targeting mitochondria, glia, and synapses, with significant accuracy improvements over state-of-the-art (SOTA) methods, including recent SAM-based adapters developed for the medical domain and other vision transformer-based approaches. Experimental results indicate that our approach outperforms existing solutions in the segmentation of complex processes like glia and post-synaptic densities. Our code and models are available at https://github.com/Uzshah/SAM4EM.
- Abstract(参考訳): 我々は,Segment Anything Model(SAM)と高度な微調整戦略を併用して,電子顕微鏡(EM)データ中の複雑な神経構造を3次元分割する新しい手法SAM4EMを提案する。
提案するコントリビューションには,2段階マスクデコーディングを用いたSAM用プロンプトフリーアダプタの開発,アノテーション付きデータによるセグメンテーション向上のためのローランド適応(LoRA)に基づく2段階ファインタニング手法,および3次元スタック間のセグメンテーション整合性を保証する3次元メモリアテンション機構などが含まれている。
さらに、天文プロセスとシナプスのセグメンテーションのためのユニークなベンチマークデータセットをリリースする。
特にミトコンドリア, グリア, シナプスを標的とした神経科学セグメンテーションベンチマークの課題について, 医療領域向けに開発されたSAMベースの最近のアダプタなど, 最先端(SOTA)法よりも高い精度で評価した。
実験結果から,本手法はグリアやシナプス後密度といった複雑なプロセスのセグメンテーションにおいて,既存の解よりも優れていたことが示唆された。
私たちのコードとモデルはhttps://github.com/Uzshah/SAM4EMで公開されています。
関連論文リスト
- AMA-SAM: Adversarial Multi-Domain Alignment of Segment Anything Model for High-Fidelity Histology Nuclei Segmentation [2.52189149988768]
本稿では,Segment Anything Model(SAM)を拡張したAdrial Multi-domain Alignment of Segment Anything Model(AMA-SAM)を紹介した。
まず、ドメイン不変表現学習を促進するために、多様なドメインの特徴を調和させる条件勾配反転層(CGRL)を提案する。
次に,高分解能デコーダ (HR-Decoder) を設計することにより,SAM固有の低分解能出力に対処する。
論文 参考訳(メタデータ) (2025-03-27T16:59:39Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - 3D Mitochondria Instance Segmentation with Spatio-Temporal Transformers [101.44668514239959]
本稿では,空間的および時間的注意を並列に効率的に計算するハイブリッドエンコーダデコーダフレームワークを提案する。
また,ミトコンドリアインスタンスの領域を背景から支援する訓練中に,意味的クラッタ・バックグラウンドの逆行性障害も導入した。
論文 参考訳(メタデータ) (2023-03-21T17:58:49Z) - MALUNet: A Multi-Attention and Light-weight UNet for Skin Lesion
Segmentation [13.456935850832565]
そこで本研究では,皮膚病変のセグメンテーションにおいて,パラメータと計算複雑性の最小コストで競合性能を実現する軽量モデルを提案する。
我々は、4つのモジュールをU字型アーキテクチャと組み合わせ、MALUNetと呼ばれる軽量な医用画像分割モデルを得る。
UNetと比較して、我々のモデルはmIoUとDSCのメトリクスをそれぞれ2.39%、1.49%改善し、パラメータ数と計算複雑性の44倍と166倍削減した。
論文 参考訳(メタデータ) (2022-11-03T13:19:22Z) - Brain segmentation based on multi-atlas guided 3D fully convolutional
network ensembles [1.52292571922932]
構造磁気共鳴画像(MRI)から関心領域(ROI)を抽出するためのマルチアトラスガイド3次元完全畳み込みネットワーク(FCN)アンサンブルモデル(M-FCN)を提案し,検証した。
我々は、各ROIの3次元FCNモデルを、適応サイズのパッチとデコンボリューション層内の畳み込み層の組込み出力を用いて訓練し、局所的およびグローバルなコンテキストパターンをさらに捉えた。
その結果,提案手法はセグメンテーション性能に優れていた。
論文 参考訳(メタデータ) (2019-01-05T08:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。