論文の概要: Graph Neural Networks with Transformer Fusion of Brain Connectivity Dynamics and Tabular Data for Forecasting Future Tobacco Use
- arxiv url: http://arxiv.org/abs/2512.23137v1
- Date: Mon, 29 Dec 2025 01:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.373252
- Title: Graph Neural Networks with Transformer Fusion of Brain Connectivity Dynamics and Tabular Data for Forecasting Future Tobacco Use
- Title(参考訳): 脳結合性ダイナミクスのトランスフォーマー融合と将来のタバコ利用予測のためのタブラルデータを用いたグラフニューラルネットワーク
- Authors: Runzhi Zhou, Xi Luo,
- Abstract要約: 変圧器融合(GNN-TF)を用いた時間認識型グラフニューラルネットワークモデルを提案する。
非ユークリッドおよびユークリッド情報源を縦型静止状態fMRIデータセットから組み込むことで、GNN-TFは包括的な分析を可能にする。
将来のタバコ使用量の予測に優れた予測精度を提供する。
- 参考スコア(独自算出の注目度): 7.476018348880164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating non-Euclidean brain imaging data with Euclidean tabular data, such as clinical and demographic information, poses a substantial challenge for medical imaging analysis, particularly in forecasting future outcomes. While machine learning and deep learning techniques have been applied successfully to cross-sectional classification and prediction tasks, effectively forecasting outcomes in longitudinal imaging studies remains challenging. To address this challenge, we introduce a time-aware graph neural network model with transformer fusion (GNN-TF). This model flexibly integrates both tabular data and dynamic brain connectivity data, leveraging the temporal order of these variables within a coherent framework. By incorporating non-Euclidean and Euclidean sources of information from a longitudinal resting-state fMRI dataset from the National Consortium on Alcohol and Neurodevelopment in Adolescence (NCANDA), the GNN-TF enables a comprehensive analysis that captures critical aspects of longitudinal imaging data. Comparative analyses against a variety of established machine learning and deep learning models demonstrate that GNN-TF outperforms these state-of-the-art methods, delivering superior predictive accuracy for predicting future tobacco usage. The end-to-end, time-aware transformer fusion structure of the proposed GNN-TF model successfully integrates multiple data modalities and leverages temporal dynamics, making it a valuable analytic tool for functional brain imaging studies focused on clinical outcome prediction.
- Abstract(参考訳): 非ユークリッド脳画像データとユークリッドの表層データ(臨床や人口統計情報など)を統合することは、医療画像解析、特に将来の成果を予測する上で大きな課題となる。
機械学習と深層学習技術は横断的な分類と予測タスクにうまく応用されているが、縦断画像研究の成果を効果的に予測することは依然として困難である。
この課題に対処するために,変換器融合(GNN-TF)を用いた時間認識グラフニューラルネットワークモデルを提案する。
このモデルは表型データと動的脳接続データの両方を柔軟に統合し、コヒーレントフレームワーク内でこれらの変数の時間的順序を利用する。
非ユークリッド的およびユークリッド的情報源を、NCANDA(National Consortium on Alcohol and Neurodevelopment in Adolescence)の縦型静止状態fMRIデータセットから取り入れることで、GNN-TFは、縦型イメージングデータの重要な側面を捉える包括的な分析を可能にする。
さまざまな確立された機械学習モデルとディープラーニングモデルの比較分析により、GNN-TFはこれらの最先端の手法よりも優れており、将来のタバコ使用を予測するための予測精度が優れていることが示された。
提案したGNN-TFモデルの終端から終端までの変換器融合構造は、複数のデータモダリティをうまく統合し、時間的ダイナミクスを活用し、臨床結果の予測に焦点を当てた機能的脳画像研究に有用な分析ツールである。
関連論文リスト
- A Sentiment Analysis of Medical Text Based on Deep Learning [1.8130068086063336]
本稿では,変換器(BERT)の双方向エンコーダ表現を基礎的事前学習モデルとして用いた医療領域に焦点を当てた。
METS-CoVデータセットを用いて実験と解析を行い、異なるディープラーニングネットワークの統合後のトレーニング性能について検討した。
CNNモデルは、BERTのような事前訓練されたモデルと組み合わせて、小さな医療用テキストデータセットでトレーニングされた場合、他のネットワークよりも優れています。
論文 参考訳(メタデータ) (2024-04-16T12:20:49Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - MaxCorrMGNN: A Multi-Graph Neural Network Framework for Generalized
Multimodal Fusion of Medical Data for Outcome Prediction [3.2889220522843625]
我々はMaxCorr MGNNと呼ばれる革新的な融合手法を開発し、患者内および患者間の非線形モダリティ相関をモデル化する。
次に,多層グラフにおけるタスクインフォームド推論のための汎用多層グラフニューラルネットワーク(MGNN)を初めて設計する。
我々は,本モデルを結核データセットにおける結果予測タスクとして評価し,最先端のニューラルネットワーク,グラフベース,従来の融合技術より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-07-13T23:52:41Z) - tdCoxSNN: Time-Dependent Cox Survival Neural Network for Continuous-time
Dynamic Prediction [19.38247205641199]
本研究では,時間依存型Coxサバイバルニューラルネットワーク(tdCoxSNN)を提案する。
提案手法と共同モデリングおよびランドマーク手法を広範囲なシミュレーションにより評価・比較する。
論文 参考訳(メタデータ) (2023-07-12T03:03:40Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - A Comparative Study of Graph Neural Networks for Shape Classification in
Neuroimaging [17.775145204666874]
ニューロイメージングにおける形状分類のための幾何学的深層学習の現状について概説する。
ノード機能としてFPFHを使用することで,GNNの性能が大幅に向上し,アウト・オブ・ディストリビューションデータへの一般化が期待できる。
以上の結果から,アルツハイマー病の分類を応用し,臨床的に有意な課題を確定した。
論文 参考訳(メタデータ) (2022-10-29T19:03:01Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Dynamic Adaptive Spatio-temporal Graph Convolution for fMRI Modelling [0.0]
本稿では,動的適応時間グラフ畳み込み(DASTGCN)モデルを提案する。
提案手法により,レイヤワイドグラフ構造学習モジュールによる脳領域間の動的接続のエンドツーエンド推論が可能となる。
我々は,安静時機能スキャンを用いて,英国ビオバンクのパイプラインを年齢・性別分類タスクとして評価した。
論文 参考訳(メタデータ) (2021-09-26T07:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。