論文の概要: Node Embedding from Neural Hamiltonian Orbits in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2305.18965v1
- Date: Tue, 30 May 2023 11:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 16:42:52.006325
- Title: Node Embedding from Neural Hamiltonian Orbits in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるニューラルハミルトン軌道からのノード埋め込み
- Authors: Qiyu Kang and Kai Zhao and Yang Song and Sijie Wang and Wee Peng Tay
- Abstract要約: 本稿では、時間とともにハミルトニアン軌道としてノード特徴の埋め込み更新をモデル化する。
提案したノード埋め込み戦略は,任意のグラフデータセットの基盤となる幾何を広範にチューニングすることなく,自動的に学習することができる。
数値実験により,提案手法は,GNNを埋め込んだ最先端グラフノードよりも,グラフデータセットの種類が異なることが確認された。
- 参考スコア(独自算出の注目度): 33.88288279902204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the graph node embedding problem, embedding spaces can vary significantly
for different data types, leading to the need for different GNN model types. In
this paper, we model the embedding update of a node feature as a Hamiltonian
orbit over time. Since the Hamiltonian orbits generalize the exponential maps,
this approach allows us to learn the underlying manifold of the graph in
training, in contrast to most of the existing literature that assumes a fixed
graph embedding manifold with a closed exponential map solution. Our proposed
node embedding strategy can automatically learn, without extensive tuning, the
underlying geometry of any given graph dataset even if it has diverse
geometries. We test Hamiltonian functions of different forms and verify the
performance of our approach on two graph node embedding downstream tasks: node
classification and link prediction. Numerical experiments demonstrate that our
approach adapts better to different types of graph datasets than popular
state-of-the-art graph node embedding GNNs. The code is available at
\url{https://github.com/zknus/Hamiltonian-GNN}.
- Abstract(参考訳): グラフノードの埋め込み問題では、埋め込み空間は異なるデータ型に対して大きく異なるため、異なるGNNモデルタイプが必要になる。
本稿では,ノードの特徴の埋め込み更新を時間経過とともにハミルトン軌道としてモデル化する。
ハミルトニアン軌道は指数写像を一般化するので、この方法では閉指数写像解を持つ固定グラフ埋め込み多様体を仮定する既存の文献のほとんどとは対照的に、訓練中のグラフの基底多様体を学習することができる。
提案したノード埋め込み戦略は,多様なジオメトリを持つ場合でも,任意のグラフデータセットの基盤となる幾何学を,広範囲なチューニングなしに自動的に学習することができる。
異なる形式のハミルトニア関数をテストし,ダウンストリームタスクを埋め込み,ノード分類とリンク予測という2つのグラフノードにおけるアプローチの性能を検証する。
数値実験により,gnnを組み込んだグラフノードよりも,異なる種類のグラフデータセットに適合することを示す。
コードは \url{https://github.com/zknus/hamiltonian-gnn} で入手できる。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Node Embedding from Hamiltonian Information Propagation in Graph Neural
Networks [30.42111062496152]
ハミルトン動的GNN(HDG)と呼ばれる新しいグラフ情報伝搬戦略を提案する。
HDGはハミルトン力学を用いてグラフ内のノード埋め込みを学習する。
グラフデータセットの基盤となる幾何学をHDGが自動的に学習できることを実証する。
論文 参考訳(メタデータ) (2023-03-02T07:40:40Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Graph Entropy Guided Node Embedding Dimension Selection for Graph Neural
Networks [74.26734952400925]
ノード埋め込み次元選択(NEDS)のための最小グラフエントロピー(MinGE)アルゴリズムを提案する。
ミンゲは、グラフ上の特徴エントロピーと構造エントロピーの両方を考えており、それらはそれらのリッチな情報の特徴に従って慎重に設計されている。
ベンチマークデータセット上で人気のグラフニューラルネットワーク(GNN)を用いた実験は,提案したMinGEの有効性と一般化性を示す。
論文 参考訳(メタデータ) (2021-05-07T11:40:29Z) - Permutation-Invariant Variational Autoencoder for Graph-Level
Representation Learning [0.0]
グラフ構造データに対する置換不変変分オートエンコーダを提案する。
本モデルは、特定のノード順序を強制することなく、入出力グラフのノード順序を間接的に学習する。
提案モデルの有効性を様々なグラフの再構築や生成タスクで実証する。
論文 参考訳(メタデータ) (2021-04-20T09:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。