論文の概要: MaskMed: Decoupled Mask and Class Prediction for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2511.15603v1
- Date: Wed, 19 Nov 2025 16:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.903666
- Title: MaskMed: Decoupled Mask and Class Prediction for Medical Image Segmentation
- Title(参考訳): MaskMed:切り離されたマスクと医用画像セグメントのクラス予測
- Authors: Bin Xie, Gady Agam,
- Abstract要約: 複数クラス予測をクラス非依存のマスク予測と,共有オブジェクトクエリを用いたクラスラベル予測に分離する,統合された分離セグメント化ヘッドを提案する。
提案手法はMaskMedと名付けられ,AMOS 2022ではnUNetを+2.0%,BTCVでは+6.9%のDiceを上回り,最先端性能を実現する。
- 参考スコア(独自算出の注目度): 10.150775949368223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation typically adopts a point-wise convolutional segmentation head to predict dense labels, where each output channel is heuristically tied to a specific class. This rigid design limits both feature sharing and semantic generalization. In this work, we propose a unified decoupled segmentation head that separates multi-class prediction into class-agnostic mask prediction and class label prediction using shared object queries. Furthermore, we introduce a Full-Scale Aware Deformable Transformer module that enables low-resolution encoder features to attend across full-resolution encoder features via deformable attention, achieving memory-efficient and spatially aligned full-scale fusion. Our proposed method, named MaskMed, achieves state-of-the-art performance, surpassing nnUNet by +2.0% Dice on AMOS 2022 and +6.9% Dice on BTCV.
- Abstract(参考訳): 医用画像のセグメンテーションは通常、特定のクラスにそれぞれの出力チャネルがヒューリスティックに結びついているような、密度の高いラベルを予測するために、ポイントワイドの畳み込みセグメンテーションヘッドを採用する。
この厳密な設計は特徴共有と意味一般化の両方を制限する。
本研究では,多クラス予測をクラス非依存のマスク予測と共有オブジェクトクエリを用いたクラスラベル予測に分離する統合された分離セグメンテーションヘッドを提案する。
さらに,低分解能エンコーダ機能を実現するフルスケールAware Deformable Transformerモジュールを導入し,メモリ効率と空間的に整合したフルスケール核融合を実現する。
提案手法はMaskMedと名付けられ,AMOS 2022ではnUNetを+2.0%,BTCVでは+6.9%のDiceを上回り,最先端性能を実現する。
関連論文リスト
- Multi-scale Feature Enhancement in Multi-task Learning for Medical Image Analysis [1.6916040234975798]
医用画像における伝統的な深層学習法は、分割や分類にのみ焦点をあてることが多い。
このモデルでは,デコーダがセグメント化マスクを生成するのに対して,エンコーダによって抽出された特徴を分類ラベルの予測に利用する。
複数の医療データセットにまたがる実験結果から, セグメンテーションタスクと分類タスクの両方において, モデルの優れた性能が確認された。
論文 参考訳(メタデータ) (2024-11-30T04:20:05Z) - Light-weight Retinal Layer Segmentation with Global Reasoning [14.558920359236572]
OCT画像に適用可能な網膜層セグメンテーションのためのLightReSegを提案する。
提案手法は,現在の最先端技術であるTransUnetと比較して,セグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2024-04-25T05:42:41Z) - A Mutual Inclusion Mechanism for Precise Boundary Segmentation in Medical Images [2.9137615132901704]
医用画像の正確な境界セグメンテーションのための新しい深層学習手法MIPC-Netを提案する。
位置特徴抽出時のチャネル情報に重点を置くMIPCモジュールを提案する。
また,エンコーダとデコーダの統合性を高めるグローバルな残差接続であるGL-MIPC-Residueを提案する。
論文 参考訳(メタデータ) (2024-04-12T02:14:35Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Multi-level Asymmetric Contrastive Learning for Volumetric Medical Image Segmentation Pre-training [17.9004421784014]
医用画像分割事前学習のためのMACLという新しいコントラスト学習フレームワークを提案する。
具体的には、プリトレインエンコーダとデコーダを同時に使用する非対称コントラスト学習構造を設計する。
8つの医用画像データセットの実験は、MACLフレームワークが既存の11のコントラスト学習戦略より優れていることを示している。
論文 参考訳(メタデータ) (2023-09-21T08:22:44Z) - DFormer: Diffusion-guided Transformer for Universal Image Segmentation [86.73405604947459]
提案したDFormerは,拡散モデルを用いて画像分割タスクをデノナイズプロセスとみなしている。
我々のDFormerは、ランダムに生成されたマスクの集合から、マスクとそれに対応するカテゴリを直接予測します。
我々のDFormerは、最近の拡散型汎光学分割法Pix2Seq-Dより優れており、MS COCO val 2017セットで3.6%向上している。
論文 参考訳(メタデータ) (2023-06-06T06:33:32Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。