論文の概要: UAM: A Unified Attention-Mamba Backbone of Multimodal Framework for Tumor Cell Classification
- arxiv url: http://arxiv.org/abs/2511.17355v1
- Date: Fri, 21 Nov 2025 16:18:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.103781
- Title: UAM: A Unified Attention-Mamba Backbone of Multimodal Framework for Tumor Cell Classification
- Title(参考訳): UAM:腫瘍細胞分類のためのマルチモーダルフレームワークの統一アテンション・マンババックボーン
- Authors: Taixi Chen, Jingyun Chen, Nancy Guo,
- Abstract要約: 放射線学的特徴を用いた細胞レベル分類のためのUnified Attention-Mambaバックボーンを提案する。
細胞レベルでの分類と画像分割を共同で行うマルチモーダルなUAMフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.529342790344802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cell-level radiomics features provide fine-grained insights into tumor phenotypes and have the potential to significantly enhance diagnostic accuracy on hematoxylin and eosin (H&E) images. By capturing micro-level morphological and intensity patterns, these features support more precise tumor identification and improve AI interpretability by highlighting diagnostically relevant cells for pathologist review. However, most existing studies focus on slide-level or patch-level tumor classification, leaving cell-level radiomics analysis largely unexplored. Moreover, there is currently no dedicated backbone specifically designed for radiomics data. Inspired by the recent success of the Mamba architecture in vision and language domains, we introduce a Unified Attention-Mamba (UAM) backbone for cell-level classification using radiomics features. Unlike previous hybrid approaches that integrate Attention and Mamba modules in fixed proportions, our unified design flexibly combines their capabilities within a single cohesive architecture, eliminating the need for manual ratio tuning and improving encode capability. We develop two UAM variants to comprehensively evaluate the benefits of this unified structure. Building on this backbone, we further propose a multimodal UAM framework that jointly performs cell-level classification and image segmentation. Experimental results demonstrate that UAM achieves state-of-the-art performance across both tasks on public benchmarks, surpassing leading image-based foundation models. It improves cell classification accuracy from 74% to 78% ($n$=349,882 cells), and tumor segmentation precision from 75% to 80% ($n$=406 patches). These findings highlight the effectiveness and promise of UAM as a unified and extensible multimodal foundation for radiomics-driven cancer diagnosis.
- Abstract(参考訳): 細胞レベルの放射能は腫瘍の表現型を詳細に把握し、ヘマトキシリンおよびエオシン(H&E)画像の診断精度を大幅に向上させる可能性がある。
マイクロレベルの形態と強度のパターンをキャプチャすることで、これらの特徴はより正確な腫瘍の同定をサポートし、病理学者のレビューのために診断に関係のある細胞を強調してAIの解釈性を向上させる。
しかし、既存の研究のほとんどはスライドレベルまたはパッチレベルの腫瘍分類に焦点をあてており、細胞レベルの放射能分析はほとんど調査されていない。
さらに、現在、放射能データ用に特別に設計されたバックボーンは存在しない。
近年,視覚・言語領域におけるMambaアーキテクチャの成功に触発されて,放射線学的特徴を用いた細胞レベル分類のためのUnified Attention-Mamba(UAM)バックボーンを導入した。
AttentionとMambaモジュールを一定の割合で統合する従来のハイブリッドアプローチとは異なり、我々の統一設計は単一の凝集性アーキテクチャでそれらの機能を柔軟に結合し、手動比のチューニングやエンコード機能の改善は不要である。
この統一構造の利点を包括的に評価する2つのUAM変異体を開発した。
このバックボーンをベースとして,細胞レベルでの分類と画像のセグメンテーションを共同で行うマルチモーダルUAMフレームワークを提案する。
実験結果から,UAMは画像ベース基礎モデルの上位を越えながら,両タスクの公開ベンチマークにおける最先端性能を実現していることがわかった。
細胞分類精度は74%から78%(n$=349,882)に向上し、腫瘍の分画精度は75%から80%(n$=406)に向上する。
以上の結果から,UAMは放射線治療による癌診断において,統一的かつ拡張可能なマルチモーダル基盤としての有効性と可能性を示唆した。
関連論文リスト
- DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - FoundBioNet: A Foundation-Based Model for IDH Genotyping of Glioma from Multi-Parametric MRI [1.4249472316161877]
我々は,多パラメータMRIから非侵襲的にIDH変異を予測できるFoundBioNet(FoundBioNet)を提案する。
1705人のグリオーマ患者を6つの公開データセットから多施設で訓練し, 評価した。
我々のモデルは、EGD、TCGA、Ivy GAP、RHUH、UPennの独立したテストセットに対して90.58%、88.08%、65.41%、および80.31%のAUCを達成した。
論文 参考訳(メタデータ) (2025-08-09T00:08:10Z) - BRISC: Annotated Dataset for Brain Tumor Segmentation and Classification [0.6840587119863303]
我々は,脳腫瘍のセグメンテーションと分類タスクのためのデータセットであるBRISCを紹介し,高分解能セグメンテーションマスクを特徴とする。
データセットは6000のコントラスト強化T1強調MRIスキャンで構成され、セグメンテーションラベルを欠いた複数の公開データセットから照合された。
悪性腫瘍としてはグリオーマ、髄膜腫、下垂体腫瘍の3種類と非腫瘍の3種類がある。
論文 参考訳(メタデータ) (2025-06-17T08:56:05Z) - MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts [54.915060471994686]
MAST-Proは,ダイナミックなMixture-of-Experts(D-MoE)とパン腫瘍セグメンテーションのための知識駆動プロンプトを統合した新しいフレームワークである。
具体的には、テキストと解剖学的プロンプトは、腫瘍表現学習を導くドメイン固有の事前情報を提供し、D-MoEは、ジェネリックと腫瘍固有の特徴学習のバランスをとる専門家を動的に選択する。
マルチ解剖学的腫瘍データセットの実験では、MAST-Proは最先端のアプローチよりも優れており、トレーニング可能なパラメータを91.04%削減し、平均改善の5.20%を達成している。
論文 参考訳(メタデータ) (2025-03-18T15:39:44Z) - Towards a Multimodal MRI-Based Foundation Model for Multi-Level Feature Exploration in Segmentation, Molecular Subtyping, and Grading of Glioma [0.2796197251957244]
Multi-Task S-UNETR(MTSUNET)モデルはBrainSegFounderモデルに基づいて構築された新しい基盤ベースのフレームワークである。
同時にグリオーマのセグメンテーション、組織学的サブタイプ、神経画像サブタイプを行う。
非侵襲的, パーソナライズされたグリオーマ管理の進展には, 予測精度と解釈可能性を改善することにより有意な可能性を秘めている。
論文 参考訳(メタデータ) (2025-03-10T01:27:09Z) - Automated ensemble method for pediatric brain tumor segmentation [0.0]
本研究では,ONet と UNet の修正版を用いた新しいアンサンブル手法を提案する。
データ拡張により、さまざまなスキャンプロトコル間の堅牢性と精度が保証される。
以上の結果から,この高度なアンサンブルアプローチは診断精度の向上に期待できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-14T15:29:32Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation [41.608617301275935]
医療用ボリュームセグメンテーションのための新しいエンドツーエンドフレームワークDiff-UNetを提案する。
提案手法では,拡散モデルを標準U字型アーキテクチャに統合し,入力ボリュームから意味情報を効率的に抽出する。
われわれは,MRI,肝腫瘍,多臓器CTの3種類の脳腫瘍について検討した。
論文 参考訳(メタデータ) (2023-03-18T04:06:18Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。