論文の概要: Pard: Permutation-Invariant Autoregressive Diffusion for Graph
Generation
- arxiv url: http://arxiv.org/abs/2402.03687v1
- Date: Tue, 6 Feb 2024 04:17:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:44:24.704437
- Title: Pard: Permutation-Invariant Autoregressive Diffusion for Graph
Generation
- Title(参考訳): Pard:グラフ生成のための置換不変自己回帰拡散
- Authors: Lingxiao Zhao, Xueying Ding, Leman Akoglu
- Abstract要約: 本稿では,拡散モデルと自己回帰的手法を統合した置換不変な自己回帰拡散モデルを提案する。
Pardは、自己回帰モデルの有効性と効率を、感度を順序付けすることなく、置換不変性を保ちながら活用する。
Pardは分子と非分子のデータセットで最先端のパフォーマンスを達成し、1.9M分子を含むMOSESのような大規模なデータセットにスケールする。
- 参考スコア(独自算出の注目度): 41.46817128667873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph generation has been dominated by autoregressive models due to their
simplicity and effectiveness, despite their sensitivity to ordering. Yet
diffusion models have garnered increasing attention, as they offer comparable
performance while being permutation-invariant. Current graph diffusion models
generate graphs in a one-shot fashion, but they require extra features and
thousands of denoising steps to achieve optimal performance. We introduce PARD,
a Permutation-invariant Auto Regressive Diffusion model that integrates
diffusion models with autoregressive methods. PARD harnesses the effectiveness
and efficiency of the autoregressive model while maintaining permutation
invariance without ordering sensitivity. Specifically, we show that contrary to
sets, elements in a graph are not entirely unordered and there is a unique
partial order for nodes and edges. With this partial order, PARD generates a
graph in a block-by-block, autoregressive fashion, where each block's
probability is conditionally modeled by a shared diffusion model with an
equivariant network. To ensure efficiency while being expressive, we further
propose a higher-order graph transformer, which integrates transformer with
PPGN. Like GPT, we extend the higher-order graph transformer to support
parallel training of all blocks. Without any extra features, PARD achieves
state-of-the-art performance on molecular and non-molecular datasets, and
scales to large datasets like MOSES containing 1.9M molecules.
- Abstract(参考訳): グラフ生成は、順序付けに対する感度にもかかわらず、単純さと有効性のため、自己回帰モデルによって支配されている。
しかし、拡散モデルは置換不変でありながら同等のパフォーマンスを提供するため、注目を集めている。
現在のグラフ拡散モデルは1ショットでグラフを生成するが、最適なパフォーマンスを達成するには追加の機能と数千のデノゲーションステップが必要である。
拡散モデルと自己回帰法を統合した置換不変自己回帰拡散モデルpardを提案する。
pardは、順序の感度なしで置換不変性を維持しながら、自己回帰モデルの有効性と効率を利用する。
具体的には、集合とは対照的に、グラフの要素は完全に順序づけられておらず、ノードとエッジに一意な部分順序が存在することを示す。
この部分順序で、PARDはブロックごとの自己回帰的なグラフを生成し、各ブロックの確率は同変ネットワークを持つ共有拡散モデルによって条件付きでモデル化される。
表現性を確保しつつ効率を確保するため,PPGNと変換器を統合した高階グラフ変換器を提案する。
GPTと同様に、全てのブロックの並列トレーニングをサポートするために高階グラフ変換器を拡張する。
余分な特徴がなければ、PARDは分子および非分子データセットの最先端のパフォーマンスを達成し、1.9M分子を含むMOSESのような大規模なデータセットにスケールする。
関連論文リスト
- Graph Generation via Spectral Diffusion [51.60814773299899]
本稿では,1)グラフラプラシア行列のスペクトル分解と2)拡散過程に基づく新しいグラフ生成モデルGRASPを提案する。
具体的には、固有ベクトルと固有値のサンプリングにデノナイジングモデルを用い、グラフラプラシアン行列と隣接行列を再構成する。
我々の置換不変モデルは各ノードの固有ベクトルに連結することでノードの特徴を扱える。
論文 参考訳(メタデータ) (2024-02-29T09:26:46Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [50.691834214298]
グラフの生成モデルは、各ノードペアの相互作用を予測する必要があるため、スケーラビリティ上の問題に遭遇することが多い。
本稿では,SparseDiffについて紹介する。SparseDiffは,グラフ生成のためのデノナイズ拡散モデルである。
実験結果から, SparseDiffは, 小グラフと大グラフの両方において, 生成性能の同時一致を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Autoregressive Diffusion Model for Graph Generation [12.390149720274904]
本稿では,グラフ生成のための自己回帰拡散モデルを提案する。
既存の方法とは異なり、離散グラフ空間内で直接動作するノード吸収拡散プロセスを定義する。
6つの多種多様なグラフデータセットと2つの分子データセットに関する実験は、我々のモデルが過去の最先端技術よりも優れた、あるいは同等な生成性能を達成していることを示している。
論文 参考訳(メタデータ) (2023-07-17T21:21:18Z) - SwinGNN: Rethinking Permutation Invariance in Diffusion Models for Graph
Generation [29.58238580423583]
置換同変ネットワークに基づく拡散モデルは、グラフデータの置換不変分布を学習することができる。
我々は、効率的なエッジツーエッジ2-WLメッセージパッシングネットワークを利用する、$textitSwinGNN$と呼ばれる不変な拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-07-04T10:58:42Z) - Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - GraphGDP: Generative Diffusion Processes for Permutation Invariant Graph
Generation [43.196067037856515]
グラフ生成モデルは生物学、化学、社会科学に広く応用されている。
現在の先行自己回帰モデルは、グラフの置換不変性を取り込むことができない。
置換不変グラフ生成のための連続時間生成拡散プロセスを提案する。
論文 参考訳(メタデータ) (2022-12-04T15:12:44Z) - DiGress: Discrete Denoising diffusion for graph generation [79.13904438217592]
DiGressは、分類ノードとエッジ属性を持つグラフを生成するための離散化拡散モデルである。
分子と非分子のデータセットで最先端のパフォーマンスを実現し、最大3倍の妥当性が向上する。
また、1.3Mの薬物様分子を含む大規模なGuacaMolデータセットにスケールする最初のモデルでもある。
論文 参考訳(メタデータ) (2022-09-29T12:55:03Z) - Permutation Invariant Graph Generation via Score-Based Generative
Modeling [114.12935776726606]
本稿では,最近のスコアベース生成モデルを用いて,グラフモデリングにおける置換不変手法を提案する。
特に、入力グラフにおけるデータ分布の勾配をモデル化するために、置換同変のマルチチャネルグラフニューラルネットワークを設計する。
グラフ生成では、我々の学習アプローチはベンチマークデータセット上の既存のモデルよりも良い、あるいは同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-02T03:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。