論文の概要: Pard: Permutation-Invariant Autoregressive Diffusion for Graph Generation
- arxiv url: http://arxiv.org/abs/2402.03687v2
- Date: Thu, 23 May 2024 04:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 07:09:37.093170
- Title: Pard: Permutation-Invariant Autoregressive Diffusion for Graph Generation
- Title(参考訳): Pard:グラフ生成のための置換不変自己回帰拡散
- Authors: Lingxiao Zhao, Xueying Ding, Leman Akoglu,
- Abstract要約: 本稿では,拡散モデルと自己回帰手法を統合した置換不変な自己回帰拡散モデルを提案する。
Pardは分子と非分子のデータセットで最先端のパフォーマンスを達成し、1.9M分子を含むMOSESのような大規模なデータセットにスケールする。
- 参考スコア(独自算出の注目度): 36.896680500652536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph generation has been dominated by autoregressive models due to their simplicity and effectiveness, despite their sensitivity to ordering. Yet diffusion models have garnered increasing attention, as they offer comparable performance while being permutation-invariant. Current graph diffusion models generate graphs in a one-shot fashion, but they require extra features and thousands of denoising steps to achieve optimal performance. We introduce PARD, a Permutation-invariant Auto Regressive Diffusion model that integrates diffusion models with autoregressive methods. PARD harnesses the effectiveness and efficiency of the autoregressive model while maintaining permutation invariance without ordering sensitivity. Specifically, we show that contrary to sets, elements in a graph are not entirely unordered and there is a unique partial order for nodes and edges. With this partial order, PARD generates a graph in a block-by-block, autoregressive fashion, where each block's probability is conditionally modeled by a shared diffusion model with an equivariant network. To ensure efficiency while being expressive, we further propose a higher-order graph transformer, which integrates transformer with PPGN. Like GPT, we extend the higher-order graph transformer to support parallel training of all blocks. Without any extra features, PARD achieves state-of-the-art performance on molecular and non-molecular datasets, and scales to large datasets like MOSES containing 1.9M molecules. Pard is open-sourced at https://github.com/LingxiaoShawn/Pard.
- Abstract(参考訳): グラフ生成は、順序付けに敏感であるにもかかわらず、単純さと有効性のため、自己回帰モデルによって支配されている。
しかし拡散モデルは、置換不変でありながら同等のパフォーマンスを提供するため、注目度が高まっている。
現在のグラフ拡散モデルは1ショットでグラフを生成するが、最適なパフォーマンスを達成するには追加の機能と数千のデノゲーションステップが必要である。
PARDは,拡散モデルと自己回帰手法を統合した,置換不変な自己回帰拡散モデルである。
PARDは、自己回帰モデルの有効性と効率を、感度を順序付けすることなく、置換不変性を保ちながら活用する。
具体的には、集合とは対照的に、グラフの要素は完全に順序づけられておらず、ノードとエッジに一意な部分順序が存在することを示す。
この部分順序で、PARDはブロックごとの自己回帰的なグラフを生成し、各ブロックの確率は同変ネットワークを持つ共有拡散モデルによって条件付きでモデル化される。
表現性を確保しつつ効率を確保するため,PPGNと変換器を統合した高次グラフ変換器を提案する。
GPTと同様に、すべてのブロックの並列トレーニングをサポートするために、高階グラフ変換器を拡張します。
余分な特徴がなければ、PARDは分子および非分子データセットの最先端のパフォーマンスを達成し、1.9M分子を含むMOSESのような大規模なデータセットにスケールする。
Pardはhttps://github.com/LingxiaoShawn/Pard.comでオープンソース化されている。
関連論文リスト
- IFH: a Diffusion Framework for Flexible Design of Graph Generative Models [53.219279193440734]
グラフ生成モデルは,1行にグラフを生成するワンショットモデルと,ノードとエッジの連続的な付加によるグラフを生成するシーケンシャルモデルという,2つの顕著なファミリーに分類される。
本稿では,逐次度を規定するグラフ生成モデルであるInsert-Fill-Halt(IFH)を提案する。
論文 参考訳(メタデータ) (2024-08-23T16:24:40Z) - Advancing Graph Generation through Beta Diffusion [49.49740940068255]
Graph Beta Diffusion (GBD)は、グラフデータの多様な性質を扱うために特別に設計された生成モデルである。
本稿では, 臨界グラフトポロジを安定化させることにより, 生成グラフの現実性を高める変調手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:42:57Z) - Autoregressive Diffusion Model for Graph Generation [12.390149720274904]
本稿では,グラフ生成のための自己回帰拡散モデルを提案する。
既存の方法とは異なり、離散グラフ空間内で直接動作するノード吸収拡散プロセスを定義する。
6つの多種多様なグラフデータセットと2つの分子データセットに関する実験は、我々のモデルが過去の最先端技術よりも優れた、あるいは同等な生成性能を達成していることを示している。
論文 参考訳(メタデータ) (2023-07-17T21:21:18Z) - SwinGNN: Rethinking Permutation Invariance in Diffusion Models for Graph Generation [15.977241867213516]
置換同変ネットワークに基づく拡散モデルは、グラフデータの置換不変分布を学習することができる。
我々は、効率的なエッジツーエッジ2-WLメッセージパッシングネットワークを利用する、$textitSwinGNN$と呼ばれる不変な拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-07-04T10:58:42Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - DiGress: Discrete Denoising diffusion for graph generation [79.13904438217592]
DiGressは、分類ノードとエッジ属性を持つグラフを生成するための離散化拡散モデルである。
分子と非分子のデータセットで最先端のパフォーマンスを実現し、最大3倍の妥当性が向上する。
また、1.3Mの薬物様分子を含む大規模なGuacaMolデータセットにスケールする最初のモデルでもある。
論文 参考訳(メタデータ) (2022-09-29T12:55:03Z) - Permutation Invariant Graph Generation via Score-Based Generative
Modeling [114.12935776726606]
本稿では,最近のスコアベース生成モデルを用いて,グラフモデリングにおける置換不変手法を提案する。
特に、入力グラフにおけるデータ分布の勾配をモデル化するために、置換同変のマルチチャネルグラフニューラルネットワークを設計する。
グラフ生成では、我々の学習アプローチはベンチマークデータセット上の既存のモデルよりも良い、あるいは同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-02T03:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。