論文の概要: DCMM-Transformer: Degree-Corrected Mixed-Membership Attention for Medical Imaging
- arxiv url: http://arxiv.org/abs/2511.12047v1
- Date: Sat, 15 Nov 2025 05:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.532444
- Title: DCMM-Transformer: Degree-Corrected Mixed-Membership Attention for Medical Imaging
- Title(参考訳): DCMM-Transformer:Dregee-Corrected Mixed-Membership Attention for Medical Imaging
- Authors: Huimin Cheng, Xiaowei Yu, Shushan Wu, Luyang Fang, Chao Cao, Jing Zhang, Tianming Liu, Dajiang Zhu, Wenxuan Zhong, Ping Ma,
- Abstract要約: 本稿では,DCMM(Degree-Corrected Mixed-Membership)モデルを自己注意の付加バイアスとして組み込んだ,医用画像解析のための新しいViTアーキテクチャであるDCMM-Transformerを提案する。
- 参考スコア(独自算出の注目度): 19.273362844763806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical images exhibit latent anatomical groupings, such as organs, tissues, and pathological regions, that standard Vision Transformers (ViTs) fail to exploit. While recent work like SBM-Transformer attempts to incorporate such structures through stochastic binary masking, they suffer from non-differentiability, training instability, and the inability to model complex community structure. We present DCMM-Transformer, a novel ViT architecture for medical image analysis that incorporates a Degree-Corrected Mixed-Membership (DCMM) model as an additive bias in self-attention. Unlike prior approaches that rely on multiplicative masking and binary sampling, our method introduces community structure and degree heterogeneity in a fully differentiable and interpretable manner. Comprehensive experiments across diverse medical imaging datasets, including brain, chest, breast, and ocular modalities, demonstrate the superior performance and generalizability of the proposed approach. Furthermore, the learned group structure and structured attention modulation substantially enhance interpretability by yielding attention maps that are anatomically meaningful and semantically coherent.
- Abstract(参考訳): 医用画像は、臓器、組織、病理領域などの潜伏した解剖学的分類を示し、標準ビジョントランスフォーマー(ViT)が利用できない。
SBM-Transformerのような最近の研究は、確率的二項マスキングによってそのような構造を取り入れようとしているが、それらは非微分可能性、訓練不安定性、複雑なコミュニティ構造をモデル化できないことなどに悩まされている。
本稿では,DCMM(Degree-Corrected Mixed-Membership)モデルを自己注意の付加バイアスとして組み込んだ,医用画像解析のための新しいViTアーキテクチャであるDCMM-Transformerを提案する。
乗法マスキングや二分法サンプリングに頼っていた従来の手法とは異なり,本手法はコミュニティ構造と次数不均一性を,完全に微分可能かつ解釈可能な方法で導入する。
脳、胸、乳、眼のモダリティを含む様々な医療画像データセットの総合的な実験は、提案手法の優れた性能と一般化性を実証している。
さらに、学習したグループ構造と構造化された注意変調は、解剖学的に有意で意味論的に整合した注意マップを得ることにより、解釈可能性を大幅に向上させる。
関連論文リスト
- MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Advancing Medical Image Segmentation: Morphology-Driven Learning with Diffusion Transformer [4.672688418357066]
本稿では,雑音の存在下での頑健なセグメンテーションのためのトランスフォーマー拡散(DTS)モデルを提案する。
画像の形態的表現を解析する本モデルでは, 種々の医用画像モダリティにおいて, 従来のモデルよりも良好な結果が得られた。
論文 参考訳(メタデータ) (2024-08-01T07:35:54Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Modality-Agnostic Structural Image Representation Learning for Deformable Multi-Modality Medical Image Registration [22.157402663162877]
本稿では,識別的・コントラスト的・非分散的な深部構造画像表現を学習するためのモダリティ非依存的構造表現学習法を提案する。
本手法は,従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れている。
論文 参考訳(メタデータ) (2024-02-29T08:01:31Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [59.062085785106234]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Beyond CNNs: Exploiting Further Inherent Symmetries in Medical Image
Segmentation [21.6412682130116]
より正確な表現を学習するために、これらの固有対称性を符号化することで、新しいグループ同変セグメンテーションフレームワークを提案する。
GER-UNet(Group Equivariant Res-UNet)が通常のCNNよりも優れていることを示す。
新たに構築されたGER-UNetは、サンプルの複雑さとフィルタの冗長性を減少させる可能性を示している。
論文 参考訳(メタデータ) (2022-07-29T04:28:20Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。