論文の概要: Attention-Based Variational Framework for Joint and Individual Components Learning with Applications in Brain Network Analysis
- arxiv url: http://arxiv.org/abs/2601.17073v1
- Date: Fri, 23 Jan 2026 00:28:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.198622
- Title: Attention-Based Variational Framework for Joint and Individual Components Learning with Applications in Brain Network Analysis
- Title(参考訳): 脳ネットワーク解析における共同学習と個別学習のための注意ベース変分フレームワーク
- Authors: Yifei Zhang, Meimei Liu, Zhengwu Zhang,
- Abstract要約: 2組のSC-FCデータセットから因数分解された潜在表現を学習するために設計されたC-Modal Joint-Individual Variational Network (CM-JIVNet)。
本モデルでは,多面的注意融合モジュールを用いて,非線形な相互依存を捕捉し,独立性,モダリティ特異的な信号の分離を行う。
関節と個々の特徴空間を効果的に切り離すことで、CM-JIVNetは大規模マルチモーダル脳分析のための堅牢で解釈可能なスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 9.090595907330018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain organization is increasingly characterized through multiple imaging modalities, most notably structural connectivity (SC) and functional connectivity (FC). Integrating these inherently distinct yet complementary data sources is essential for uncovering the cross-modal patterns that drive behavioral phenotypes. However, effective integration is hindered by the high dimensionality and non-linearity of connectome data, complex non-linear SC-FC coupling, and the challenge of disentangling shared information from modality-specific variations. To address these issues, we propose the Cross-Modal Joint-Individual Variational Network (CM-JIVNet), a unified probabilistic framework designed to learn factorized latent representations from paired SC-FC datasets. Our model utilizes a multi-head attention fusion module to capture non-linear cross-modal dependencies while isolating independent, modality-specific signals. Validated on Human Connectome Project Young Adult (HCP-YA) data, CM-JIVNet demonstrates superior performance in cross-modal reconstruction and behavioral trait prediction. By effectively disentangling joint and individual feature spaces, CM-JIVNet provides a robust, interpretable, and scalable solution for large-scale multimodal brain analysis.
- Abstract(参考訳): 脳組織は、複数の画像モダリティ、特に構造接続(SC)と機能接続(FC)によって、ますます特徴付けられる。
これらの本質的に異なる相補的なデータソースを統合することは、行動表現型を駆動するクロスモーダルパターンを明らかにするのに不可欠である。
しかし、有効積分はコネクトームデータの高次元および非線形性、複雑な非線形SC-FC結合、およびモダリティ固有のバリエーションから共有情報を分離する難しさによって妨げられる。
これらの問題に対処するために、SC-FCデータセットから因数分解された潜在表現を学習するための統合確率的フレームワークであるCross-Modal Joint-Individual Variational Network (CM-JIVNet)を提案する。
本モデルでは,多面的注意融合モジュールを用いて,非線形な相互依存を捕捉し,独立性,モダリティ特異的な信号の分離を行う。
CM-JIVNetはHCP-YA(Human Connectome Project Young Adult)データに基づいて,クロスモーダル再構築と行動特性予測において優れた性能を示す。
関節と個々の特徴空間を効果的に切り離すことで、CM-JIVNetは大規模マルチモーダル脳分析のための堅牢で解釈可能なスケーラブルなソリューションを提供する。
関連論文リスト
- Modality-Specific Enhancement and Complementary Fusion for Semi-Supervised Multi-Modal Brain Tumor Segmentation [6.302779966909783]
医用画像セグメンテーションのための新しい半教師付きマルチモーダルフレームワークを提案する。
モダリティ固有のエンハンシングモジュール(MEM)を導入し、各モダリティに意味的なユニークな手がかりを強化する。
また,学習可能な相補的情報融合(CIF)モジュールを導入し,モダリティ間の相補的知識を適応的に交換する。
論文 参考訳(メタデータ) (2025-12-10T16:15:17Z) - Cross-Modal Alignment via Variational Copula Modelling [54.25504956780864]
複数のモーダルから様々な情報を集約するマルチモーダル学習手法を開発することが不可欠である。
既存の方法は主に連結やクロネッカー積に依存し、モジュラリティ間の相互作用構造を単純化する。
そこで本研究では,様々なモーダルの連成分布の学習に焦点を当てた,コプラ駆動型マルチモーダル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-05T05:28:28Z) - scMRDR: A scalable and flexible framework for unpaired single-cell multi-omics data integration [53.683726781791385]
単一セルマルチオミクス(ScMRDR)と呼ばれるスケーラブルでフレキシブルな生成フレームワークを導入する。
本手法は, バッチ補正, モダリティアライメント, 生体信号保存の観点から, ベンチマークデータセット上での優れた性能を実現する。
論文 参考訳(メタデータ) (2025-10-28T21:28:39Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - Measuring Cross-Modal Interactions in Multimodal Models [9.862551438475666]
既存のAIメソッドは、複数のデータソースの複合的な影響を理解するために不可欠な、モーダル間インタラクションをキャプチャできない。
本稿では,既存のアプローチの限界に対処する相互モーダルインタラクションスコアであるInterSHAPを紹介する。
我々は,InterSHAPが相互モーダル相互作用の存在を正確に測定し,複数のモーダルを扱えることを示す。
論文 参考訳(メタデータ) (2024-12-20T12:11:20Z) - Online Multi-modal Root Cause Analysis [61.94987309148539]
ルート原因分析(RCA)は、マイクロサービスシステムにおける障害の根本原因の特定に不可欠である。
既存のオンラインRCAメソッドは、マルチモーダルシステムにおける複雑な相互作用を見渡す単一モーダルデータのみを処理する。
OCEANは、根本原因の局在化のための新しいオンラインマルチモーダル因果構造学習手法である。
論文 参考訳(メタデータ) (2024-10-13T21:47:36Z) - HEALNet: Multimodal Fusion for Heterogeneous Biomedical Data [10.774128925670183]
本稿では,フレキシブルなマルチモーダル融合アーキテクチャであるHybrid Early-fusion Attention Learning Network (HEALNet)を提案する。
The Cancer Genome Atlas (TCGA) の4つのがんデータセットにおける全スライド画像と多モードデータを用いたマルチモーダルサバイバル解析を行った。
HEALNetは、他のエンドツーエンドの訓練された融合モデルと比較して最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-15T17:06:26Z) - Learning Multiscale Consistency for Self-supervised Electron Microscopy
Instance Segmentation [48.267001230607306]
本稿では,EMボリュームのマルチスケール一貫性を高める事前学習フレームワークを提案する。
当社のアプローチでは,強力なデータ拡張と弱いデータ拡張を統合することで,Siameseネットワークアーキテクチャを活用している。
効果的にボクセルと機能の一貫性をキャプチャし、EM分析のための転送可能な表現を学習する。
論文 参考訳(メタデータ) (2023-08-19T05:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。