論文の概要: Do Graph Diffusion Models Accurately Capture and Generate Substructure Distributions?
- arxiv url: http://arxiv.org/abs/2502.02488v1
- Date: Tue, 04 Feb 2025 17:04:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:57:30.520217
- Title: Do Graph Diffusion Models Accurately Capture and Generate Substructure Distributions?
- Title(参考訳): グラフ拡散モデルは正確な部分構造分布の捕捉と生成は可能か?
- Authors: Xiyuan Wang, Yewei Liu, Lexi Pang, Siwei Chen, Muhan Zhang,
- Abstract要約: 拡散モデルは、複素グラフデータの分布スコアを正確にモデル化する普遍的な表現性を持っていない。
本研究は,対象とするグラフ分布の鍵となる特徴として,特定の部分構造の周波数に着目して,この制限に対処する。
グラフニューラルネットワーク(GNN)の表現性とグラフ拡散モデル全体の性能との理論的関係を確立する。
- 参考スコア(独自算出の注目度): 28.19526635775658
- License:
- Abstract: Diffusion models have gained popularity in graph generation tasks; however, the extent of their expressivity concerning the graph distributions they can learn is not fully understood. Unlike models in other domains, popular backbones for graph diffusion models, such as Graph Transformers, do not possess universal expressivity to accurately model the distribution scores of complex graph data. Our work addresses this limitation by focusing on the frequency of specific substructures as a key characteristic of target graph distributions. When evaluating existing models using this metric, we find that they fail to maintain the distribution of substructure counts observed in the training set when generating new graphs. To address this issue, we establish a theoretical connection between the expressivity of Graph Neural Networks (GNNs) and the overall performance of graph diffusion models, demonstrating that more expressive GNN backbones can better capture complex distribution patterns. By integrating advanced GNNs into the backbone architecture, we achieve significant improvements in substructure generation.
- Abstract(参考訳): 拡散モデルはグラフ生成タスクで人気を得ているが、それらが学習できるグラフ分布に関する表現力の程度は、完全には理解されていない。
他の領域のモデルとは異なり、グラフ変換器のようなグラフ拡散モデルの一般的なバックボーンは、複雑なグラフデータの分布スコアを正確にモデル化するための普遍的な表現性を持っていない。
本研究は,対象とするグラフ分布の鍵となる特徴として,特定の部分構造の周波数に着目して,この制限に対処する。
この測定値を用いて既存のモデルを評価すると、新しいグラフを生成する際にトレーニングセットで観測されるサブ構造数の分布を維持できないことが分かる。
この問題に対処するため,グラフニューラルネットワーク(GNN)の表現率とグラフ拡散モデル全体の性能の理論的関連性を確立し,より表現力の高いGNNバックボーンが複雑な分布パターンをよりよくキャプチャできることを示した。
高度なGNNをバックボーンアーキテクチャに統合することにより,サブ構造生成の大幅な改善を実現している。
関連論文リスト
- Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Graph Condensation via Receptive Field Distribution Matching [61.71711656856704]
本稿では,元のグラフを表す小さなグラフの作成に焦点をあてる。
我々は、元のグラフを受容体の分布とみなし、受容体が同様の分布を持つ小さなグラフを合成することを目的としている。
論文 参考訳(メタデータ) (2022-06-28T02:10:05Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Crime Prediction with Graph Neural Networks and Multivariate Normal
Distributions [18.640610803366876]
グラフ畳み込みネットワーク(GCN)のフレキシブルな構造を利用して,高分解能領域における疎結合問題に取り組む。
グラフ畳み込みGated Recurrent Units (Graph-ConvGRU) を用いてモデルを構築し,空間的・時間的・カテゴリー的関係を学習する。
モデルが生成性だけでなく,正確性も示しています。
論文 参考訳(メタデータ) (2021-11-29T17:37:01Z) - Generalization of graph network inferences in higher-order graphical
models [5.33024001730262]
確率的グラフィカルモデルは、複雑な統計構造を記述する強力なツールを提供する。
辺化のような推論は 一般グラフでは難解です
我々は,多変数相互作用を含むグラフィカルモデル上での高速な近似推定を実現するために,Recurrent Factor Graph Neural Network (RF-GNN) を定義する。
論文 参考訳(メタデータ) (2021-07-12T20:51:27Z) - Generating the Graph Gestalt: Kernel-Regularized Graph Representation
Learning [47.506013386710954]
グラフデータの完全な科学的理解は、グローバル構造とローカル構造の両方に対処する必要がある。
本稿では,グラフVAEフレームワークにおける相補的目的として,両者のジョイントモデルを提案する。
実験により,生成したグラフ構造の現実性は,典型的には1-2桁のグラフ構造メトリクスによって著しく向上したことが示された。
論文 参考訳(メタデータ) (2021-06-29T10:48:28Z) - GRAND: Graph Neural Diffusion [15.00135729657076]
本稿では,連続拡散過程としてグラフの深層学習にアプローチするグラフニューラル拡散(GRAND)を提案する。
我々のモデルでは、層構造と位相は時間的および空間的作用素の離散化選択に対応する。
我々のモデルの成功の鍵は、データの摂動に対する安定性であり、これは暗黙的および明示的な離散化スキームの両方に対処する。
論文 参考訳(メタデータ) (2021-06-21T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。