論文の概要: Universal Normalization Enhanced Graph Representation Learning for Gene
Network Prediction
- arxiv url: http://arxiv.org/abs/2309.00738v1
- Date: Fri, 1 Sep 2023 21:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 01:37:20.050585
- Title: Universal Normalization Enhanced Graph Representation Learning for Gene
Network Prediction
- Title(参考訳): 遺伝子ネットワーク予測のための普遍正規化強化グラフ表現学習
- Authors: Zehao Dong, Muhan Zhang, Qihang Zhao, Philip R.O. Payne, Michael
Province, Carlos Cruchaga, Tianyu Zhao, Yixin Chen, Fuhai Li
- Abstract要約: 本稿では,ベースGNNの性能を高めるために,UNGNN(Universal Normalized GNN)フレームワークを提案する。
遺伝子ネットワークに基づくバイオインフォマティクスタスクに関する包括的な実験は、我々のUNGNNモデルが人気のあるGNNベンチマークを著しく上回っていることを示している。
- 参考スコア(独自算出の注目度): 32.269447364423755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective gene network representation learning is of great importance in
bioinformatics to predict/understand the relation of gene profiles and disease
phenotypes. Though graph neural networks (GNNs) have been the dominant
architecture for analyzing various graph-structured data like social networks,
their predicting on gene networks often exhibits subpar performance. In this
paper, we formally investigate the gene network representation learning problem
and characterize a notion of \textit{universal graph normalization}, where
graph normalization can be applied in an universal manner to maximize the
expressive power of GNNs while maintaining the stability. We propose a novel
UNGNN (Universal Normalized GNN) framework, which leverages universal graph
normalization in both the message passing phase and readout layer to enhance
the performance of a base GNN. UNGNN has a plug-and-play property and can be
combined with any GNN backbone in practice. A comprehensive set of experiments
on gene-network-based bioinformatical tasks demonstrates that our UNGNN model
significantly outperforms popular GNN benchmarks and provides an overall
performance improvement of 16 $\%$ on average compared to previous
state-of-the-art (SOTA) baselines. Furthermore, we also evaluate our
theoretical findings on other graph datasets where the universal graph
normalization is solvable, and we observe that UNGNN consistently achieves the
superior performance.
- Abstract(参考訳): 効果的な遺伝子ネットワーク表現学習は、遺伝子プロファイルと疾患表現型の関係を予測・理解するバイオインフォマティクスにおいて非常に重要である。
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークのような様々なグラフ構造化データを分析するための支配的なアーキテクチャであるが、遺伝子ネットワークでの予測は、しばしば低いパフォーマンスを示す。
本稿では,遺伝子ネットワーク表現学習問題を形式的に検討し,安定を維持しつつgnnの表現力を最大化するためにグラフ正規化を普遍的に適用できる, \textit{universal graph normalization} の概念を特徴付ける。
メッセージパッシングフェーズと読み出しレイヤの両方において、普遍的なグラフ正規化を利用してベースGNNの性能を向上させる新しいUNGNN(Universal Normalized GNN)フレームワークを提案する。
UNGNNにはプラグインとプレイのプロパティがあり、実際には任意のGNNバックボーンと組み合わせることができる。
遺伝子ネットワークに基づくバイオインフォマティクスタスクに関する総合的な実験により、我々のUNGNNモデルは、一般的なGNNベンチマークを著しく上回り、従来のSOTAベースラインと比較して、平均16$\%の全体的なパフォーマンス改善を提供することを示した。
さらに,ユビキタスグラフ正規化が解ける他のグラフデータセットの理論的結果も評価し,UNGNNが常に優れた性能を発揮することを観察した。
関連論文リスト
- Scalable Implicit Graphon Learning [25.015678499211404]
本稿では、暗黙的ニューラルネットワーク(INR)とグラフニューラルネットワーク(GNN)を組み合わせて、観測されたグラフからグラフを推定するスケーラブルな手法を提案する。
合成グラフと実世界のグラフでSIGLを評価し,既存の手法より優れ,大規模グラフに効果的にスケール可能であることを示した。
論文 参考訳(メタデータ) (2024-10-22T22:44:24Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Edge Directionality Improves Learning on Heterophilic Graphs [42.5099159786891]
我々は、有向グラフを深層学習するための新しいフレームワークであるDir-GNN(Directed Graph Neural Network)を紹介する。
Dir-GNNは、任意のメッセージパッシングニューラルネットワーク(MPNN)を拡張して、エッジ指向性情報を考慮するために使用することができる。
我々は,Dir-GNNが従来のMPNNよりも高い指向性Weisfeiler-Lehmanテストの表現性に一致することを証明した。
論文 参考訳(メタデータ) (2023-05-17T18:06:43Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Measuring and Improving the Use of Graph Information in Graph Neural
Networks [38.41049128525036]
グラフニューラルネットワーク(GNN)は,グラフデータの表現学習に広く利用されている。
本稿では,グラフデータから得られる情報の量と質を測定するための2つのスムーズネス指標を提案する。
CS-GNNと呼ばれる新しいGNNモデルは、グラフの滑らかさ値に基づいてグラフ情報の利用を改善するように設計されている。
論文 参考訳(メタデータ) (2022-06-27T10:27:28Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - Graph Neural Networks for Graphs with Heterophily: A Survey [98.45621222357397]
異種グラフに対するグラフニューラルネットワーク(GNN)の総合的なレビューを提供する。
具体的には,既存の異好性GNNモデルを本質的に支配する系統分類法を提案する。
グラフヘテロフィリーと様々なグラフ研究領域の相関を議論し、より効果的なGNNの開発を促進することを目的とした。
論文 参考訳(メタデータ) (2022-02-14T23:07:47Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。