論文の概要: Node Embedding from Hamiltonian Information Propagation in Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2303.01030v1
- Date: Thu, 2 Mar 2023 07:40:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 15:43:14.432360
- Title: Node Embedding from Hamiltonian Information Propagation in Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークにおけるハミルトン情報伝搬からのノード埋め込み
- Authors: Qiyu Kang, Kai Zhao, Yang Song, Sijie Wang, Rui She, and Wee Peng Tay
- Abstract要約: ハミルトン動的GNN(HDG)と呼ばれる新しいグラフ情報伝搬戦略を提案する。
HDGはハミルトン力学を用いてグラフ内のノード埋め込みを学習する。
グラフデータセットの基盤となる幾何学をHDGが自動的に学習できることを実証する。
- 参考スコア(独自算出の注目度): 30.42111062496152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved success in various inference tasks
on graph-structured data. However, common challenges faced by many GNNs in the
literature include the problem of graph node embedding under various geometries
and the over-smoothing problem. To address these issues, we propose a novel
graph information propagation strategy called Hamiltonian Dynamic GNN (HDG)
that uses a Hamiltonian mechanics approach to learn node embeddings in a graph.
The Hamiltonian energy function in HDG is learnable and can adapt to the
underlying geometry of any given graph dataset. We demonstrate the ability of
HDG to automatically learn the underlying geometry of graph datasets, even
those with complex and mixed geometries, through comprehensive evaluations
against state-of-the-art baselines on various downstream tasks. We also verify
that HDG is stable against small perturbations and can mitigate the
over-smoothing problem when stacking many layers.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データに対する様々な推論タスクで成功している。
しかし、多くのGNNが文献で直面している一般的な課題は、様々なジオメトリにグラフノードを埋め込む問題とオーバー・スムーシングの問題である。
これらの問題に対処するため,ハミルトニアン動的GNN(HDG)と呼ばれる新しいグラフ情報伝搬戦略を提案する。
HDGのハミルトニアンエネルギー関数は学習可能であり、任意のグラフデータセットの基底幾何学に適応することができる。
我々は,様々な下流タスクにおける最先端のベースラインに対する総合的な評価を通じて,グラフデータセットの基盤となる幾何を,複雑かつ混合されたジオメトリーでも自動的に学習する能力を示す。
また,hdgが小さい摂動に対して安定であることを検証し,多数の層を積み重ねる際のオーバースムーシング問題を緩和できることを示した。
関連論文リスト
- DeepRicci: Self-supervised Graph Structure-Feature Co-Refinement for
Alleviating Over-squashing [72.70197960100677]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)を改良したグラフで強化する上で重要な役割を果たしている。
GSLソリューションは、通常、タスク固有の監督(ノード分類)による構造改善に焦点を当てるか、GNN自体の固有の弱点を見落としている。
本稿では,典型的なGNNにおけるオーバー・スカッシングの問題を効果的に緩和する,自己教師付きグラフ構造-機能共分法について検討する。
論文 参考訳(メタデータ) (2024-01-23T14:06:08Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Node Embedding from Neural Hamiltonian Orbits in Graph Neural Networks [33.88288279902204]
本稿では、時間とともにハミルトニアン軌道としてノード特徴の埋め込み更新をモデル化する。
提案したノード埋め込み戦略は,任意のグラフデータセットの基盤となる幾何を広範にチューニングすることなく,自動的に学習することができる。
数値実験により,提案手法は,GNNを埋め込んだ最先端グラフノードよりも,グラフデータセットの種類が異なることが確認された。
論文 参考訳(メタデータ) (2023-05-30T11:53:40Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - FoSR: First-order spectral rewiring for addressing oversquashing in GNNs [0.0]
グラフニューラルネットワーク(GNN)は、グラフのエッジに沿ってメッセージを渡すことによって、グラフデータの構造を活用することができる。
本稿では,グラフにエッジを体系的に付加することで過疎化を防止する計算効率のよいアルゴリズムを提案する。
提案アルゴリズムは,いくつかのグラフ分類タスクにおいて,既存のグラフリウィリング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T07:58:03Z) - Graph Anomaly Detection with Graph Neural Networks: Current Status and
Challenges [9.076649460696402]
グラフニューラルネットワーク(GNN)は広く研究され、困難な機械学習タスクを成功させた。
本調査は,GNNに基づくグラフ異常検出手法の総合的なレビューとしては初めてである。
論文 参考訳(メタデータ) (2022-09-29T16:47:57Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Deep Graph-level Anomaly Detection by Glocal Knowledge Distillation [61.39364567221311]
グラフレベルの異常検出(GAD)は、その構造やノードの特徴に異常なグラフを検出する問題を記述している。
GADの課題の1つは、局所的および大域的非正則グラフの検出を可能にするグラフ表現を考案することである。
本稿では,グラフとノード表現の連成ランダム蒸留により,グローバルおよびローカルな正規パターン情報を豊富に学習するGADのための新しい深部異常検出手法を提案する。
論文 参考訳(メタデータ) (2021-12-19T05:04:53Z) - Graph Entropy Guided Node Embedding Dimension Selection for Graph Neural
Networks [74.26734952400925]
ノード埋め込み次元選択(NEDS)のための最小グラフエントロピー(MinGE)アルゴリズムを提案する。
ミンゲは、グラフ上の特徴エントロピーと構造エントロピーの両方を考えており、それらはそれらのリッチな情報の特徴に従って慎重に設計されている。
ベンチマークデータセット上で人気のグラフニューラルネットワーク(GNN)を用いた実験は,提案したMinGEの有効性と一般化性を示す。
論文 参考訳(メタデータ) (2021-05-07T11:40:29Z) - Geom-GCN: Geometric Graph Convolutional Networks [15.783571061254847]
本稿では,この2つの弱点を克服するために,グラフニューラルネットワークのための新しい幾何集約手法を提案する。
提案したアグリゲーションスキームは置換不変であり、ノード埋め込み、構造近傍、二レベルアグリゲーションという3つのモジュールから構成される。
また,このスキームをGeom-GCNと呼ばれるグラフ畳み込みネットワークに実装し,グラフ上でトランスダクティブ学習を行う。
論文 参考訳(メタデータ) (2020-02-13T00:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。