論文の概要: GenDMR: A dynamic multimodal role-swapping network for identifying risk gene phenotypes
- arxiv url: http://arxiv.org/abs/2506.01456v1
- Date: Mon, 02 Jun 2025 09:12:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.117675
- Title: GenDMR: A dynamic multimodal role-swapping network for identifying risk gene phenotypes
- Title(参考訳): GenDMR:リスク遺伝子表現型同定のための動的マルチモーダルロールスワッピングネットワーク
- Authors: Lina Qin, Cheng Zhu, Chuqi Zhou, Yukun Huang, Jiayi Zhu, Ping Liang, Jinju Wang, Yixing Huang, Cheng Luo, Dezhong Yao, Ying Tan,
- Abstract要約: 単一ヌクレオチド多型(SNP)の空間構造をコード化する新しい手法を開発する。
SNPと脳領域の病気リスクを適応的に定量化するために,マルチスタンス・アテンション・モジュールを提案する。
GenDMRはADNI公開データセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 9.963779680531298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that integrating multimodal data fusion techniques for imaging and genetic features is beneficial for the etiological analysis and predictive diagnosis of Alzheimer's disease (AD). However, there are several critical flaws in current deep learning methods. Firstly, there has been insufficient discussion and exploration regarding the selection and encoding of genetic information. Secondly, due to the significantly superior classification value of AD imaging features compared to genetic features, many studies in multimodal fusion emphasize the strengths of imaging features, actively mitigating the influence of weaker features, thereby diminishing the learning of the unique value of genetic features. To address this issue, this study proposes the dynamic multimodal role-swapping network (GenDMR). In GenDMR, we develop a novel approach to encode the spatial organization of single nucleotide polymorphisms (SNPs), enhancing the representation of their genomic context. Additionally, to adaptively quantify the disease risk of SNPs and brain region, we propose a multi-instance attention module to enhance model interpretability. Furthermore, we introduce a dominant modality selection module and a contrastive self-distillation module, combining them to achieve a dynamic teacher-student role exchange mechanism based on dominant and auxiliary modalities for bidirectional co-updating of different modal data. Finally, GenDMR achieves state-of-the-art performance on the ADNI public dataset and visualizes attention to different SNPs, focusing on confirming 12 potential high-risk genes related to AD, including the most classic APOE and recently highlighted significant risk genes. This demonstrates GenDMR's interpretable analytical capability in exploring AD genetic features, providing new insights and perspectives for the development of multimodal data fusion techniques.
- Abstract(参考訳): 近年の研究では、マルチモーダルデータ融合技術の統合が、アルツハイマー病(AD)の病因分析および予測診断に有用であることが示されている。
しかし、現在のディープラーニング手法にはいくつかの重大な欠陥がある。
第一に、遺伝情報の選定と符号化に関する議論や調査は不十分である。
第二に、AD画像の特徴が遺伝的特徴に比べてかなり優れた分類値のため、マルチモーダル融合における多くの研究は、画像特徴の強みを強調し、弱い特徴の影響を積極的に緩和し、遺伝的特徴のユニークな価値の学習を減少させる。
そこで本研究では,動的マルチモーダルロールスワッピングネットワーク(GenDMR)を提案する。
GenDMRでは、単一ヌクレオチド多型(SNP)の空間構造をコード化する新しい手法を開発し、ゲノムコンテキストの表現を強化する。
さらに,SNPと脳領域の疾患リスクを適応的に定量化するために,モデル解釈可能性を高めるマルチインスタンスアテンションモジュールを提案する。
さらに、支配的なモダリティ選択モジュールとコントラスト的な自己蒸留モジュールを導入し、異なるモーダルデータの双方向結合のための支配的および補助的モダリティに基づく動的教師・学生の役割交換機構を実現する。
最後に、GenDMRはADNI公開データセットにおける最先端のパフォーマンスを達成し、さまざまなSNPへの注意を可視化し、最も古典的なAPOEを含むADに関連する12の潜在的ハイリスク遺伝子を確認し、最近重要なリスク遺伝子を強調した。
これは、AD遺伝子の特徴を探索するGenDMRの解釈可能な解析能力を示し、マルチモーダルデータ融合技術の開発のための新しい洞察と視点を提供する。
関連論文リスト
- MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [52.106879463828044]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Predicting Genetic Mutation from Whole Slide Images via Biomedical-Linguistic Knowledge Enhanced Multi-label Classification [119.13058298388101]
遺伝子変異予測性能を向上させるため,生物知識を付加したPathGenomic Multi-label Transformerを開発した。
BPGTはまず、2つの慎重に設計されたモジュールによって遺伝子前駆体を構成する新しい遺伝子エンコーダを確立する。
BPGTはその後ラベルデコーダを設計し、最終的に2つの調整されたモジュールによる遺伝的突然変異予測を行う。
論文 参考訳(メタデータ) (2024-06-05T06:42:27Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Joint Self-Supervised and Supervised Contrastive Learning for Multimodal
MRI Data: Towards Predicting Abnormal Neurodevelopment [5.771221868064265]
マルチモーダルMRIデータから頑健な潜在特徴表現を学習するための,新しい自己教師付きコントラスト学習法を提案する。
本手法は,マルチモーダルデータの活用により,臨床実習におけるコンピュータ支援診断を容易にする能力を有する。
論文 参考訳(メタデータ) (2023-12-22T21:05:51Z) - Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - Copy Number Variation Informs fMRI-based Prediction of Autism Spectrum
Disorder [9.544191399458954]
我々は、遺伝的、人口統計学的、神経画像データを組み合わせるためのより統合的なモデルを開発する。
表現型に対するジェノタイプの影響に触発されて,注意に基づくアプローチを提案する。
228ASDの性バランスデータセットを用いて,ASD分類と重度予測タスクに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2023-08-08T19:53:43Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - Multi-modal learning for predicting the genotype of glioma [14.93152817415408]
Isocitrate dehydrogenase (IDH)遺伝子変異はグリオーマの診断と予後に必須なバイオマーカーである。
焦点腫瘍像と幾何学的特徴をMRIから派生した脳ネットワーク特徴と統合することにより、グリオーマ遺伝子型をより正確に予測できることが期待されている。
本稿では,3つのエンコーダを用いたマルチモーダル学習フレームワークを提案し,局所腫瘍像,腫瘍幾何学,大域脳ネットワークの特徴を抽出する。
論文 参考訳(メタデータ) (2022-03-21T10:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。