論文の概要: Selective Complementary Feature Fusion and Modal Feature Compression Interaction for Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2503.16149v1
- Date: Thu, 20 Mar 2025 13:52:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 15:30:52.418542
- Title: Selective Complementary Feature Fusion and Modal Feature Compression Interaction for Brain Tumor Segmentation
- Title(参考訳): 脳腫瘍切除における選択的相補的特徴融合とモーダル特徴圧縮相互作用
- Authors: Dong Chen, Boyue Zhao, Yi Zhang, Meng Zhao,
- Abstract要約: マルチモーダル特徴情報の相補的融合と圧縮相互作用を実現するための補完的特徴圧縮相互作用ネットワーク(CFCI-Net)を提案する。
CFCI-Netは最先端モデルよりも優れた結果が得られる。
- 参考スコア(独自算出の注目度): 14.457627015612827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient modal feature fusion strategy is the key to achieve accurate segmentation of brain glioma. However, due to the specificity of different MRI modes, it is difficult to carry out cross-modal fusion with large differences in modal features, resulting in the model ignoring rich feature information. On the other hand, the problem of multi-modal feature redundancy interaction occurs in parallel networks due to the proliferation of feature dimensions, further increase the difficulty of multi-modal feature fusion at the bottom end. In order to solve the above problems, we propose a noval complementary feature compression interaction network (CFCI-Net), which realizes the complementary fusion and compression interaction of multi-modal feature information with an efficient mode fusion strategy. Firstly, we propose a selective complementary feature fusion (SCFF) module, which adaptively fuses rich cross-modal feature information by complementary soft selection weights. Secondly, a modal feature compression interaction (MFCI) transformer is proposed to deal with the multi-mode fusion redundancy problem when the feature dimension surges. The MFCI transformer is composed of modal feature compression (MFC) and modal feature interaction (MFI) to realize redundancy feature compression and multi-mode feature interactive learning. %In MFI, we propose a hierarchical interactive attention mechanism based on multi-head attention. Evaluations on the BraTS2019 and BraTS2020 datasets demonstrate that CFCI-Net achieves superior results compared to state-of-the-art models. Code: https://github.com/CDmm0/CFCI-Net
- Abstract(参考訳): 脳グリオーマの正確なセグメンテーションを実現する鍵は、効率的なモーダルな特徴融合戦略である。
しかし, 異なるMRIモードの特異性のため, モーダル特徴の差が大きいクロスモーダル融合を行うことは困難であり, 結果として, リッチな特徴情報を無視したモデルが得られる。
一方,特徴次元の増大による並列ネットワークにおけるマルチモーダル特徴の冗長性相互作用の問題は,下位端におけるマルチモーダル特徴融合の難しさをさらに高める。
上記の問題を解決するために,マルチモーダル特徴情報と効率的なモード融合戦略の相補的融合と圧縮的相互作用を実現する,Noval complementary feature compression interaction network (CFCI-Net)を提案する。
まず,選択的相補的特徴融合(SCFF)モジュールを提案する。
次に,多モード融合冗長性問題に対処するため,MFCI変換器を提案する。
MFCIトランスは、冗長性特徴圧縮とマルチモード特徴対話学習を実現するために、モーダル特徴圧縮(MFC)とモーダル特徴相互作用(MFI)で構成されている。
%MFIにおいて,マルチヘッドアテンションに基づく階層的対話型アテンション機構を提案する。
BraTS2019とBraTS2020データセットの評価は、CFCI-Netが最先端のモデルよりも優れた結果が得られることを示している。
コード:https://github.com/CDmm0/CFCI-Net
関連論文リスト
- Attention-Based Variational Framework for Joint and Individual Components Learning with Applications in Brain Network Analysis [9.090595907330018]
2組のSC-FCデータセットから因数分解された潜在表現を学習するために設計されたC-Modal Joint-Individual Variational Network (CM-JIVNet)。
本モデルでは,多面的注意融合モジュールを用いて,非線形な相互依存を捕捉し,独立性,モダリティ特異的な信号の分離を行う。
関節と個々の特徴空間を効果的に切り離すことで、CM-JIVNetは大規模マルチモーダル脳分析のための堅牢で解釈可能なスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2026-01-23T00:28:43Z) - UniMRSeg: Unified Modality-Relax Segmentation via Hierarchical Self-Supervised Compensation [104.59740403500132]
マルチモーダルイメージセグメンテーションは、不完全/破損したモダリティの劣化による実際のデプロイメント課題に直面している。
階層型自己教師型補償(HSSC)による統一Modality-relaxセグメンテーションネットワーク(UniMRSeg)を提案する。
我々のアプローチは、入力レベル、特徴レベル、出力レベルをまたいだ完全なモダリティと不完全なモダリティの間の表現ギャップを階層的に橋渡しします。
論文 参考訳(メタデータ) (2025-09-19T17:29:25Z) - IRDFusion: Iterative Relation-Map Difference guided Feature Fusion for Multispectral Object Detection [23.256601188227865]
クロスモーダルな特徴のコントラストとスクリーニング戦略に基づく,革新的な機能融合フレームワークを提案する。
提案手法は,オブジェクト認識の相補的クロスモーダル特徴を融合させることにより,有能な構造を適応的に強化する。
IRDFusionは、様々な挑戦的なシナリオで既存のメソッドを一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-11T01:22:35Z) - Decouple, Reorganize, and Fuse: A Multimodal Framework for Cancer Survival Prediction [25.880454851313434]
がん生存率分析は、様々な医療指標にまたがって情報を統合して生存時間の予測を行うのが一般的である。
既存の手法は主に、モダリティの異なる分離された特徴を抽出し、結合、注意、MoEベースの融合のような融合操作を実行することに焦点を当てている。
本稿では,モダリティデカップリングと動的MoE融合モジュール間のランダムな特徴再構成戦略を考案したDecoupling-Reorganization-Fusion framework(DeReF)を提案する。
論文 参考訳(メタデータ) (2025-08-26T03:18:25Z) - Gated Recursive Fusion: A Stateful Approach to Scalable Multimodal Transformers [0.0]
Gated Recurrent Fusion(GRF)は、線形にスケーラブルで再帰的なパイプライン内で、モーダル間注目のパワーをキャプチャする新しいアーキテクチャである。
我々の研究は、強力でスケーラブルなマルチモーダル表現学習のための堅牢で効率的なパラダイムを提示している。
論文 参考訳(メタデータ) (2025-07-01T09:33:38Z) - TACFN: Transformer-based Adaptive Cross-modal Fusion Network for Multimodal Emotion Recognition [5.9931594640934325]
クロスモーダルアテンションに基づく核融合法は高い性能と強靭性を示す。
本稿では, 変圧器を用いた適応型クロスモーダル核融合ネットワーク(TACFN)を提案する。
実験結果から,TACFNは他の手法と比較して大きな性能向上が見られた。
論文 参考訳(メタデータ) (2025-05-10T06:57:58Z) - M$^3$amba: CLIP-driven Mamba Model for Multi-modal Remote Sensing Classification [23.322598623627222]
M$3$ambaは、マルチモーダル融合のための新しいエンドツーエンドのCLIP駆動のMambaモデルである。
異なるモダリティの包括的セマンティック理解を実現するために,CLIP駆動型モダリティ固有アダプタを提案する。
実験の結果、M$3$ambaは最先端の手法と比較して平均5.98%の性能向上が見られた。
論文 参考訳(メタデータ) (2025-03-09T05:06:47Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - A Multimodal Feature Distillation with CNN-Transformer Network for Brain Tumor Segmentation with Incomplete Modalities [15.841483814265592]
本稿では,CNN-Transformer Hybrid Network (MCTSeg) を用いたマルチモーダル特徴蒸留法を提案する。
CNN-Transformer ネットワークと Transformer の畳み込みブロックを併用して提案するモジュールの重要性について検討した。
論文 参考訳(メタデータ) (2024-04-22T09:33:44Z) - FusionMamba: Dynamic Feature Enhancement for Multimodal Image Fusion with Mamba [19.761723108363796]
FusionMamba はコンピュータビジョンタスクにおいて CNN や Vision Transformers (ViT) が直面する課題を克服することを目的としている。
このフレームワークは動的畳み込みとチャネルアテンション機構を統合することで、視覚的状態空間モデルMambaを改善している。
実験により、FusionMambaは様々なマルチモーダル画像融合タスクや下流実験で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-04-15T06:37:21Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Deep Equilibrium Multimodal Fusion [88.04713412107947]
多重モーダル融合は、複数のモーダルに存在する相補的な情報を統合し、近年多くの注目を集めている。
本稿では,動的多モード核融合プロセスの固定点を求めることにより,多モード核融合に対する新しいDeep equilibrium (DEQ)法を提案する。
BRCA,MM-IMDB,CMU-MOSI,SUN RGB-D,VQA-v2の実験により,DEC融合の優位性が示された。
論文 参考訳(メタデータ) (2023-06-29T03:02:20Z) - CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for
Multi-Modality Image Fusion [138.40422469153145]
本稿では,CDDFuse(Relationed-Driven Feature Decomposition Fusion)ネットワークを提案する。
近赤外可視画像融合や医用画像融合など,複数の融合タスクにおいてCDDFuseが有望な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-26T02:40:28Z) - Transformer-based Network for RGB-D Saliency Detection [82.6665619584628]
RGB-Dサリエンシ検出の鍵は、2つのモードにわたる複数のスケールで情報を完全なマイニングとヒューズすることである。
コンバータは機能融合と機能拡張の両面において高い有効性を示す一様操作であることを示す。
提案するネットワークは,最先端のRGB-D値検出手法に対して良好に動作する。
論文 参考訳(メタデータ) (2021-12-01T15:53:58Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。