論文の概要: SegMate: Asymmetric Attention-Based Lightweight Architecture for Efficient Multi-Organ Segmentation
- arxiv url: http://arxiv.org/abs/2602.23903v1
- Date: Fri, 27 Feb 2026 10:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.380601
- Title: SegMate: Asymmetric Attention-Based Lightweight Architecture for Efficient Multi-Organ Segmentation
- Title(参考訳): SegMate: 効率的なマルチオーガンセグメンテーションのための非対称アテンションベース軽量アーキテクチャ
- Authors: Andrei-Alexandru Bunea, Dan-Matei Popovici, Radu Tudor Ionescu,
- Abstract要約: 医用画像セグメンテーションの最先端モデルは精度が高いが、かなりの計算資源を必要とする。
計算要求を大幅に削減しつつ,最先端の精度を実現する,効率の良い2.5DフレームワークであるSegMateを提案する。
- 参考スコア(独自算出の注目度): 18.60155862524957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art models for medical image segmentation achieve excellent accuracy but require substantial computational resources, limiting deployment in resource-constrained clinical settings. We present SegMate, an efficient 2.5D framework that achieves state-of-the-art accuracy, while considerably reducing computational requirements. Our efficient design is the result of meticulously integrating asymmetric architectures, attention mechanisms, multi-scale feature fusion, slice-based positional conditioning, and multi-task optimization. We demonstrate the efficiency-accuracy trade-off of our framework across three modern backbones (EfficientNetV2-M, MambaOut-Tiny, FastViT-T12). We perform experiments on three datasets: TotalSegmentator, SegTHOR and AMOS22. Compared with the vanilla models, SegMate reduces computation (GFLOPs) by up to 2.5x and memory footprint (VRAM) by up to 2.1x, while generally registering performance gains of around 1%. On TotalSegmentator, we achieve a Dice score of 93.51% with only 295MB peak GPU memory. Zero-shot cross-dataset evaluations on SegTHOR and AMOS22 demonstrate strong generalization, with Dice scores of up to 86.85% and 89.35%, respectively. We release our open-source code at https://github.com/andreibunea99/SegMate.
- Abstract(参考訳): 医用画像セグメンテーションの最先端モデルは、精度は優れているが、かなりの計算資源が必要であり、リソース制約された臨床環境への展開を制限している。
計算要求を大幅に削減しつつ,最先端の精度を実現する,効率の良い2.5DフレームワークであるSegMateを提案する。
我々の効率的な設計は、非対称アーキテクチャ、アテンション機構、マルチスケール機能融合、スライスベースの位置条件付け、マルチタスク最適化の厳密な統合の結果である。
最新の3つのバックボーン(EfficientNetV2-M,MambaOut-Tiny,FastViT-T12)でフレームワークの効率性と精度のトレードオフを実証する。
我々はTotalSegmentator、SegTHOR、AMOS22の3つのデータセットで実験を行った。
バニラモデルと比較して、SegMateは計算(GFLOP)を最大2.5倍、メモリフットプリント(VRAM)を最大2.1倍削減する。
TotalSegmentatorでは、295MBのピークGPUメモリで93.51%のDiceスコアを得る。
SegTHORとAMOS22のゼロショットクロスデータセット評価は、それぞれ86.85%と89.35%のDiceスコアを持つ強力な一般化を示している。
オープンソースコードはhttps://github.com/andreibunea99/SegMate.comで公開しています。
関連論文リスト
- MLRU++: Multiscale Lightweight Residual UNETR++ with Attention for Efficient 3D Medical Image Segmentation [3.014234061484863]
セグメント化精度と計算効率のバランスをとるために設計されたマルチスケール軽量Residual UNETR++アーキテクチャ。
4つの公開ベンチマークデータセットの実験は、MLRU++が最先端のパフォーマンスを達成することを示した。
MLRU++は, 3次元画像分割タスクに対して, 実用的で高性能なソリューションを提供する。
論文 参考訳(メタデータ) (2025-07-22T00:30:44Z) - Simple is what you need for efficient and accurate medical image segmentation [7.2109224546543675]
本稿では,スケーラブルな超軽量医用画像分割モデルSimpleUNetを提案する。
記録破りの16KBパラメータ設定により、SimpleUNetはLBUNetや他の軽量ベンチマークを上回っている。
0.67MBの派生型は、より優れた効率(8.60 GFLOPs)と精度を実現し、マルチセンターの乳房病変のデータセットの平均DSC/IoUは85.76%/75.60%に達した。
論文 参考訳(メタデータ) (2025-06-16T12:31:48Z) - No More Sliding Window: Efficient 3D Medical Image Segmentation with Differentiable Top-k Patch Sampling [34.54360931760496]
No-More-Sliding-Window (NMSW)は、3Dセグメンテーションのための新しいエンドツーエンドのトレーニング可能なフレームワークである。
NMSWは、最も関連するパッチのみを選択的にサンプリングするために、差別化可能なTop-kモジュールを使用している。
H100 GPUでは9.1倍高速な推論、Xeon Gold CPUでは11.1倍高速な推論を提供する。
論文 参考訳(メタデータ) (2025-01-18T16:23:09Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - SegNeXt: Rethinking Convolutional Attention Design for Semantic
Segmentation [100.89770978711464]
セマンティックセグメンテーションのための単純な畳み込みネットワークアーキテクチャであるSegNeXtを提案する。
コンボリューションアテンションは、トランスフォーマーの自己認識メカニズムよりも、文脈情報をエンコードするより効率的で効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-09-18T14:33:49Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense
Prediction [67.11722682878722]
この研究は、新しいマルチスケール線形注意を持つ高解像度ビジョンモデルのファミリーであるEfficientViTを提示する。
マルチスケール線形注意は,グローバルな受容場とマルチスケール学習を実現する。
EfficientViTは従来の最先端モデルよりも優れたパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2022-05-29T20:07:23Z) - Dynamically pruning segformer for efficient semantic segmentation [8.29672153078638]
効率的なセマンティックセグメンテーションのための軽量セグメンテーションセグメンテーションを設計する。
本研究は,SegFormer層内のニューロンが異なる画像間で大きなばらつきを示すという観測に基づいて,動的ゲート線形層を提案する。
また,2段階の知識蒸留を導入し,原教師内の知識を刈り取られた学生ネットワークに伝達する。
論文 参考訳(メタデータ) (2021-11-18T03:34:28Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。