論文の概要: SBGD: Improving Graph Diffusion Generative Model via Stochastic Block Diffusion
- arxiv url: http://arxiv.org/abs/2508.14352v1
- Date: Wed, 20 Aug 2025 01:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.308759
- Title: SBGD: Improving Graph Diffusion Generative Model via Stochastic Block Diffusion
- Title(参考訳): SBGD:確率ブロック拡散によるグラフ拡散生成モデルの改善
- Authors: Junwei Su, Shan Wu,
- Abstract要約: グラフ拡散生成モデル(GDGM)は、高品質なグラフを生成する強力なツールとして登場した。
GDGMは、高いメモリ要求のため、大きなグラフにスケールするのに苦労している。
本稿では,グラフ表現をブロックグラフ空間に洗練するブロックグラフ拡散モデルを提案する。
- 参考スコア(独自算出の注目度): 2.3043270848984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph diffusion generative models (GDGMs) have emerged as powerful tools for generating high-quality graphs. However, their broader adoption faces challenges in \emph{scalability and size generalization}. GDGMs struggle to scale to large graphs due to their high memory requirements, as they typically operate in the full graph space, requiring the entire graph to be stored in memory during training and inference. This constraint limits their feasibility for large-scale real-world graphs. GDGMs also exhibit poor size generalization, with limited ability to generate graphs of sizes different from those in the training data, restricting their adaptability across diverse applications. To address these challenges, we propose the stochastic block graph diffusion (SBGD) model, which refines graph representations into a block graph space. This space incorporates structural priors based on real-world graph patterns, significantly reducing memory complexity and enabling scalability to large graphs. The block representation also improves size generalization by capturing fundamental graph structures. Empirical results show that SBGD achieves significant memory improvements (up to 6$\times$) while maintaining comparable or even superior graph generation performance relative to state-of-the-art methods. Furthermore, experiments demonstrate that SBGD better generalizes to unseen graph sizes. The significance of SBGD extends beyond being a scalable and effective GDGM; it also exemplifies the principle of modularization in generative modeling, offering a new avenue for exploring generative models by decomposing complex tasks into more manageable components.
- Abstract(参考訳): グラフ拡散生成モデル(GDGM)は、高品質なグラフを生成する強力なツールとして登場した。
しかし、それらのより広範な採用は、emph{scalability and size generalization}の課題に直面している。
GDGMは、トレーニングと推論中にグラフ全体をメモリに格納する必要があるため、通常、フルグラフ空間で動作するため、高いメモリ要求のため、大きなグラフにスケールするのに苦労する。
この制約は、大規模な実世界のグラフの実現可能性を制限する。
GDGMは、トレーニングデータとは異なるサイズのグラフを生成する能力に制限があり、様々なアプリケーションにまたがる適合性を制限している。
これらの課題に対処するために,グラフ表現をブロックグラフ空間に洗練する確率ブロックグラフ拡散(SBGD)モデルを提案する。
このスペースには、現実世界のグラフパターンに基づいた構造的事前情報が含まれており、メモリの複雑さを著しく低減し、大きなグラフへのスケーラビリティを可能にしている。
ブロック表現は、基本グラフ構造をキャプチャすることで、サイズ一般化も改善する。
実験の結果、SBGDは6$\times$まで大きなメモリ改善を実現し、最先端の手法と比較して、同等あるいは優れたグラフ生成性能を維持していることがわかった。
さらに、実験により、SBGDは未確認のグラフサイズにより良い一般化を示す。
SBGD の重要性は、スケーラブルで効果的な GDGM に留まらず、生成モデルにおけるモジュール化の原則を実証し、複雑なタスクをより管理可能なコンポーネントに分解することで、生成モデルを探索するための新たな道筋を提供する。
関連論文リスト
- Generating Large Semi-Synthetic Graphs of Any Size [0.4419843514606336]
グラフ生成はネットワーク科学において重要な領域である。
近年のディープラーニングの進歩により、データ駆動型手法によるグラフの学習と生成が可能になった。
本稿では,遅延グラフサンプリング生成(LGSG)を提案する。
論文 参考訳(メタデータ) (2025-07-02T21:46:28Z) - Scalable Graph Generative Modeling via Substructure Sequences [37.64864614356634]
本稿では,グラフ生成用トランスフォーマー事前学習フレームワークである生成グラフパターンマシン(G$2$PM)を紹介する。
G$2$PMはグラフインスタンスをサブストラクチャのシーケンスとして表現し、生成前トレーニングを用いて一般化可能で転送可能な表現を学習する。
ogbn-arxivベンチマークでは、G$2$PMはモデルのサイズを最大60Mのパラメータで改善し続けており、かなり小さなスケールでプラトーを生成する以前の生成的アプローチよりも優れている。
論文 参考訳(メタデータ) (2025-05-22T02:16:34Z) - RGL: A Graph-Centric, Modular Framework for Efficient Retrieval-Augmented Generation on Graphs [58.10503898336799]
完全なRAGパイプラインをシームレスに統合するモジュラーフレームワークであるRAG-on-Graphs Library(RGL)を紹介した。
RGLは、さまざまなグラフフォーマットをサポートし、必須コンポーネントの最適化実装を統合することで、重要な課題に対処する。
評価の結果,RGLはプロトタイピングプロセスの高速化だけでなく,グラフベースRAGシステムの性能や適用性の向上も図っている。
論文 参考訳(メタデータ) (2025-03-25T03:21:48Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - DHIL-GT: Scalable Graph Transformer with Decoupled Hierarchy Labeling [10.556366638048384]
Graph Transformer(GT)は最近、グラフ構造化データ学習のための有望なニューラルネットワークアーキテクチャとして登場した。
DHIL-GTはスケーラブルなグラフ変換器で,グラフ計算を個別のステージに完全に分離することで,ネットワーク学習を簡略化する。
DHIL-GTは、大規模ベンチマーク上の既存のスケーラブルグラフ変換器の設計よりも、計算の高速化とミニバッチ能力の点で効率的である。
論文 参考訳(メタデータ) (2024-12-06T02:59:01Z) - AnyGraph: Graph Foundation Model in the Wild [16.313146933922752]
グラフ基盤モデルは、グラフデータから堅牢で一般化可能な表現を学ぶ可能性を提供します。
本研究では,主要な課題に対処するために設計された統一グラフモデルであるAnyGraphについて検討する。
多様な38のグラフデータセットに対する実験は、AnyGraphの強力なゼロショット学習性能を実証した。
論文 参考訳(メタデータ) (2024-08-20T09:57:13Z) - Advancing Graph Generation through Beta Diffusion [49.49740940068255]
Graph Beta Diffusion (GBD)は、グラフデータの多様な性質を扱うために特別に設計された生成モデルである。
本稿では, 臨界グラフトポロジを安定化させることにより, 生成グラフの現実性を高める変調手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:42:57Z) - Improving Graph Generation by Restricting Graph Bandwidth [0.7874708385247353]
ディープグラフ生成モデリングは、実世界のグラフを特徴付ける複雑なマルチスケール構造の分布を学習できることが証明されている。
既存の方法の主な制限の1つは、その大きな出力空間である。
本稿では,既存のグラフ生成モデルの出力空間を大幅に削減する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-25T22:27:46Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Towards Graph Self-Supervised Learning with Contrastive Adjusted Zooming [48.99614465020678]
本稿では,グラフコントラスト適応ズームによる自己教師付きグラフ表現学習アルゴリズムを提案する。
このメカニズムにより、G-Zoomはグラフから複数のスケールから自己超越信号を探索して抽出することができる。
我々は,実世界のデータセットに関する広範な実験を行い,提案したモデルが常に最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-20T22:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。