論文の概要: Leveraging Classical Algorithms for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.21574v1
- Date: Fri, 24 Oct 2025 15:42:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.440809
- Title: Leveraging Classical Algorithms for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための古典的アルゴリズムの活用
- Authors: Jason Wu, Petar Veličković,
- Abstract要約: 古典的アルゴリズムにおけるグラフニューラルネットワーク(GNN)の事前学習により,その性能が向上するかどうかを検討する。
CLRS Algorithmic Reasoning Benchmarkから24の古典的アルゴリズムでトレーニングされたGNNは、第2のGNNの選択したレイヤの初期化と凍結に使用される。
ランダムに初期化されたベースラインと比較して、事前訓練されたモデルは一貫した勝利または結びつきを達成する。
- 参考スコア(独自算出の注目度): 2.3276568119098084
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural networks excel at processing unstructured data but often fail to generalise out-of-distribution, whereas classical algorithms guarantee correctness but lack flexibility. We explore whether pretraining Graph Neural Networks (GNNs) on classical algorithms can improve their performance on molecular property prediction tasks from the Open Graph Benchmark: ogbg-molhiv (HIV inhibition) and ogbg-molclintox (clinical toxicity). GNNs trained on 24 classical algorithms from the CLRS Algorithmic Reasoning Benchmark are used to initialise and freeze selected layers of a second GNN for molecular prediction. Compared to a randomly initialised baseline, the pretrained models achieve consistent wins or ties, with the Segments Intersect algorithm pretraining yielding a 6% absolute gain on ogbg-molhiv and Dijkstra pretraining achieving a 3% gain on ogbg-molclintox. These results demonstrate embedding classical algorithmic priors into GNNs provides useful inductive biases, boosting performance on complex, real-world graph data.
- Abstract(参考訳): ニューラルネットワークは非構造化データの処理に優れるが、分散の一般化に失敗することが多い。
The Open Graph Benchmark: ogbg-molhiv (HIV阻害) and ogbg-molclintox (clinical toxicity)。
CLRS Algorithmic Reasoning Benchmarkから24の古典的アルゴリズムで訓練されたGNNは、分子予測のために第2のGNNの選ばれた層を初期化し凍結するために使用される。
ランダムに初期化されたベースラインと比較して、事前学習されたモデルは、ogbg-molhiv と Dijkstra に対して6%の絶対ゲインを得るセグメンツ・インターセクト・アルゴリズムにより、一貫した勝利または結びつきを達成し、ogbg-molclintox において3%のゲインを達成する。
これらの結果は,従来のアルゴリズムをGNNに組み込むことで,複雑な実世界のグラフデータの性能向上に寄与する。
関連論文リスト
- FIT-GNN: Faster Inference Time for GNNs that 'FIT' in Memory Using Coarsening [1.1345413192078595]
本稿では,グラフ粗化を用いた推論フェーズにおける計算負担を軽減することにより,グラフニューラルネットワーク(GNN)のスケーラビリティを向上させる新しい手法を提案する。
本研究は,グラフ分類やグラフ回帰を含むグラフレベルのタスクに対するグラフ粗化の適用を拡大する。
その結果,提案手法は従来の手法に比べて単一ノード推定時間において桁違いに改善されていることがわかった。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Boosting Graph Neural Network Expressivity with Learnable Lanczos Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
本研究では,2-WLで区別できないグラフを,効率的な時間的複雑性を維持しながら識別できることを実証する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - Iterative Graph Neural Network Enhancement via Frequent Subgraph Mining
of Explanations [0.0]
我々は、説明強化グラフ学習(EEGL)と呼ばれるノード分類のためのグラフニューラルネットワーク(GNN)のためのXAIベースのモデル改善アプローチを定式化する。
目的は、説明を用いてGNNの予測性能を改善することである。
EEGLは、学習された"バニラ"GNNから始まる反復的な自己改善アルゴリズムであり、頻繁にサブグラフマイニングを使用して説明サブグラフの関連パターンを見つける。
論文 参考訳(メタデータ) (2024-03-12T17:41:27Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Unifying Label-inputted Graph Neural Networks with Deep Equilibrium
Models [12.71307159013144]
この研究は、LGNNをインプリシットGNN(IGNN)理論で解釈することで、2つのグラフニューラルネットワーク(GNN)を統一する。
IGNNはグラフ全体の情報を利用して長距離依存を捕捉するが、そのネットワークは平衡の存在を保証するよう制約されている。
本研究では、IGNNの暗黙的な微分を導入し、その無限範囲ラベル伝搬定数メモリを区別し、伝播を遠方かつ適応的にする。
論文 参考訳(メタデータ) (2022-11-19T09:28:53Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。