論文の概要: Are Expressive Encoders Necessary for Discrete Graph Generation?
- arxiv url: http://arxiv.org/abs/2603.08825v1
- Date: Mon, 09 Mar 2026 18:36:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.75814
- Title: Are Expressive Encoders Necessary for Discrete Graph Generation?
- Title(参考訳): 離散グラフ生成には表現エンコーダが必要か?
- Authors: Jay Revolinsky, Harry Shomer, Jiliang Tang,
- Abstract要約: 我々は,グラフ生成のためのモジュール型メッセージパッシングフレームワークGenGNNを紹介する。
GenGNNによる拡散モデルは、木と平面のデータセットに対して90%以上の妥当性を達成する。
分子生成では、GenGNNのバックボーンを持つDiGressは99.49%の妥当性を達成している。
- 参考スコア(独自算出の注目度): 40.00511566138393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discrete graph generation has emerged as a powerful paradigm for modeling graph data, often relying on highly expressive neural backbones such as transformers or higher-order architectures. We revisit this design choice by introducing GenGNN, a modular message-passing framework for graph generation. Diffusion models with GenGNN achieve more than 90% validity on Tree and Planar datasets, within margins of graph transformers, at 2-5x faster inference speed. For molecule generation, DiGress with a GenGNN backbone achieves 99.49% Validity. A systematic ablation study shows the benefit provided by each GenGNN component, indicating the need for residual connections to mitigate oversmoothing on complicated graph-structure. Through scaling analyses, we apply a principled metric-space view to investigate learned diffusion representations and uncover whether GNNs can be expressive neural backbones for discrete diffusion.
- Abstract(参考訳): 離散グラフ生成はグラフデータをモデリングするための強力なパラダイムとして登場し、しばしばトランスフォーマーや高階アーキテクチャのような高度に表現力のある神経バックボーンに依存している。
我々は、グラフ生成のためのモジュール型メッセージパッシングフレームワークであるGenGNNを導入することで、この設計選択を再考する。
GenGNNを用いた拡散モデルは、グラフトランスフォーマーのマージン内において、木と平面のデータセットに対して90%以上の妥当性を、2-5倍高速な推論速度で達成する。
分子生成では、GenGNNのバックボーンを持つDiGressは99.49%の妥当性を達成している。
系統的アブレーション研究は、それぞれのGenGNNコンポーネントが提供する利点を示し、複雑なグラフ構造上の過剰なスムースを緩和するための残余接続の必要性を示している。
スケーリング分析を通じて,学習した拡散表現を解析し,GNNが離散拡散のために表現性のある神経バックボーンであるかどうかを明らかにするために,原則的距離空間ビューを適用した。
関連論文リスト
- Can we ease the Injectivity Bottleneck on Lorentzian Manifolds for Graph Neural Networks? [0.0]
Lorentzian Graph Isomorphic Network (LGIN)は、Lorentzianモデル内での識別性を高めるために設計された新しいHGNNである。
LGINは、強力で差別性の高いGNNアーキテクチャの原理をリーマン多様体に適応させた最初のものである。
論文 参考訳(メタデータ) (2025-03-31T18:49:34Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Towards Better Generalization with Flexible Representation of
Multi-Module Graph Neural Networks [0.27195102129094995]
ランダムグラフ生成器を用いて,グラフサイズと構造特性がGNNの予測性能に与える影響について検討する。
本稿では,GNNが未知のグラフに一般化できるかどうかを決定する上で,平均ノード次数が重要な特徴であることを示す。
集約された入力に対して単一の正準非線形変換を一般化することにより、ネットワークが新しいグラフに柔軟に対応可能なマルチモジュールGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-14T12:13:59Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks [8.777765815864367]
エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
論文 参考訳(メタデータ) (2021-05-03T15:48:34Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。