論文の概要: Principled Latent Diffusion for Graphs via Laplacian Autoencoders
- arxiv url: http://arxiv.org/abs/2601.13780v1
- Date: Tue, 20 Jan 2026 09:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.251124
- Title: Principled Latent Diffusion for Graphs via Laplacian Autoencoders
- Title(参考訳): ラプラシアンオートエンコーダによるグラフの原理的潜在拡散
- Authors: Antoine Siraudin, Christopher Morris,
- Abstract要約: LG-Flowはグラフ拡散フレームワークである。
置換同変オートエンコーダは各ノードを固定次元埋め込みにマッピングし、完全な隣接性は確実に回復可能である。
提案手法は,最先端グラフ拡散モデルに対する競合的な結果を得ると同時に,最大1000倍の高速化を実現する。
- 参考スコア(独自算出の注目度): 9.238565851133602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph diffusion models achieve state-of-the-art performance in graph generation but suffer from quadratic complexity in the number of nodes -- and much of their capacity is wasted modeling the absence of edges in sparse graphs. Inspired by latent diffusion in other modalities, a natural idea is to compress graphs into a low-dimensional latent space and perform diffusion there. However, unlike images or text, graph generation requires nearly lossless reconstruction, as even a single error in decoding an adjacency matrix can render the entire sample invalid. This challenge has remained largely unaddressed. We propose LG-Flow, a latent graph diffusion framework that directly overcomes these obstacles. A permutation-equivariant autoencoder maps each node into a fixed-dimensional embedding from which the full adjacency is provably recoverable, enabling near-lossless reconstruction for both undirected graphs and DAGs. The dimensionality of this latent representation scales linearly with the number of nodes, eliminating the quadratic bottleneck and making it feasible to train larger and more expressive models. In this latent space, we train a Diffusion Transformer with flow matching, enabling efficient and expressive graph generation. Our approach achieves competitive results against state-of-the-art graph diffusion models, while achieving up to $1000\times$ speed-up.
- Abstract(参考訳): グラフ拡散モデルはグラフ生成において最先端のパフォーマンスを実現するが、ノード数の2次複雑さに悩まされている。
他のモジュラリティにおける潜在拡散にインスパイアされた自然な考えは、グラフを低次元の潜在空間に圧縮し、そこで拡散を実行することである。
しかし、画像やテキストとは異なり、グラフ生成にはほとんどロスレスな再構築が必要である。
この問題は、ほとんど未解決のままである。
本稿では,これらの障害を直接克服する潜在グラフ拡散フレームワークであるLG-Flowを提案する。
置換同変オートエンコーダは、各ノードを固定次元の埋め込みにマッピングし、完全な隣接性が証明可能であり、無向グラフとDAGの両方のほぼロスレスな再構成を可能にする。
この潜在表現の次元はノード数と線形にスケールし、二次的ボトルネックを排除し、より大きく表現力のあるモデルを訓練することができる。
この潜在空間では、フローマッチングを備えた拡散変換器を訓練し、効率よく表現力のあるグラフ生成を可能にする。
提案手法は,最新のグラフ拡散モデルに対して,最大1000\times$ Speed-upを達成しながら,競合する結果を得る。
関連論文リスト
- Diffusion-Free Graph Generation with Next-Scale Prediction [3.505533791554976]
次世代の予測に基づく拡散自由グラフ生成フレームワークを提案する。
潜在表現の階層化を活用することで、モデルは明示的なノード順序付けを必要とせずに、グラフ全体のスケールを段階的に生成する。
ジェネリックグラフと分子グラフの両方の実験は、この手法の可能性を実証し、最先端の手法よりも最大3桁の推論速度を達成した。
論文 参考訳(メタデータ) (2025-03-30T22:30:34Z) - Advancing Graph Generation through Beta Diffusion [49.49740940068255]
Graph Beta Diffusion (GBD)は、グラフデータの多様な性質を扱うために特別に設計された生成モデルである。
本稿では, 臨界グラフトポロジを安定化させることにより, 生成グラフの現実性を高める変調手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:42:57Z) - Input Snapshots Fusion for Scalable Discrete-Time Dynamic Graph Neural Networks [27.616083395612595]
本稿では,Hawkesプロセスとグラフニューラルネットワークを組み合わせることで,動的グラフの時間的および構造的パターンを効果的に捉えるSFDyGを提案する。
複数のスナップショットを1つの時間グラフに融合することで、SFDyGはスナップショットの数から計算複雑性を分離し、効率的なフルバッチとミニバッチのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-05-11T10:05:55Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Supercharging Graph Transformers with Advective Diffusion [28.40109111316014]
本稿では,この課題に対処するために,物理に着想を得たグラフトランスモデルであるAdvDIFFormerを提案する。
本稿では,AdvDIFFormerが位相シフトによる一般化誤差を制御できることを示す。
経験的に、このモデルは情報ネットワーク、分子スクリーニング、タンパク質相互作用の様々な予測タスクにおいて優位性を示す。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Autoregressive Diffusion Model for Graph Generation [12.390149720274904]
本稿では,グラフ生成のための自己回帰拡散モデルを提案する。
既存の方法とは異なり、離散グラフ空間内で直接動作するノード吸収拡散プロセスを定義する。
6つの多種多様なグラフデータセットと2つの分子データセットに関する実験は、我々のモデルが過去の最先端技術よりも優れた、あるいは同等な生成性能を達成していることを示している。
論文 参考訳(メタデータ) (2023-07-17T21:21:18Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。