論文の概要: Flatten Graphs as Sequences: Transformers are Scalable Graph Generators
- arxiv url: http://arxiv.org/abs/2502.02216v2
- Date: Fri, 19 Sep 2025 16:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 14:36:44.731221
- Title: Flatten Graphs as Sequences: Transformers are Scalable Graph Generators
- Title(参考訳): シーケンスとしてのフラットグラフ: トランスフォーマーはスケーラブルグラフジェネレータである
- Authors: Dexiong Chen, Markus Krimmel, Karsten Borgwardt,
- Abstract要約: AutoGraphは、デコーダのみのトランスフォーマーを使用した属性グラフ生成のためのスケーラブルな自動回帰モデルである。
合成および分子ベンチマークの最先端性能を達成し、最大100倍高速な生成と3倍高速なトレーニングを実現している。
- 参考スコア(独自算出の注目度): 7.341041463243556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce AutoGraph, a scalable autoregressive model for attributed graph generation using decoder-only transformers. By flattening graphs into random sequences of tokens through a reversible process, AutoGraph enables modeling graphs as sequences without relying on additional node features that are expensive to compute, in contrast to diffusion-based approaches. This results in sampling complexity and sequence lengths that scale optimally linearly with the number of edges, making it scalable and efficient for large, sparse graphs. A key success factor of AutoGraph is that its sequence prefixes represent induced subgraphs, creating a direct link to sub-sentences in language modeling. Empirically, AutoGraph achieves state-of-the-art performance on synthetic and molecular benchmarks, with up to 100x faster generation and 3x faster training than leading diffusion models. It also supports substructure-conditioned generation without fine-tuning and shows promising transferability, bridging language modeling and graph generation to lay the groundwork for graph foundation models. Our code is available at https://github.com/BorgwardtLab/AutoGraph.
- Abstract(参考訳): 本稿では,デコーダのみの変換器を用いた属性グラフ生成のためのスケーラブルな自己回帰モデルであるAutoGraphを紹介する。
グラフを可逆的なプロセスを通じてランダムなトークン列にフラット化することにより、AutoGraphは拡散ベースのアプローチとは対照的に、計算に高価な追加ノード機能に頼ることなく、グラフをシーケンスとしてモデル化することができる。
これにより、エッジの数で最適に線形にスケールする複雑性やシーケンスの長さをサンプリングし、大規模でスパースなグラフに対してスケーラブルで効率的になる。
AutoGraphの重要な成功要因は、そのシーケンスプレフィックスがインジェクションされたサブグラフを表し、言語モデリングにおけるサブ文への直接リンクを生成することである。
実証的には、AutoGraphは合成および分子ベンチマークで最先端のパフォーマンスを達成し、最大100倍高速な生成と3倍高速なトレーニングを実現している。
また、微調整なしでサブストラクチャ条件付き生成をサポートし、グラフ基盤モデルの基盤となるように、将来性のある転送可能性、ブリッジ言語モデリング、グラフ生成を示す。
私たちのコードはhttps://github.com/BorgwardtLab/AutoGraphで利用可能です。
関連論文リスト
- Diffusion-Free Graph Generation with Next-Scale Prediction [3.505533791554976]
次世代の予測に基づく拡散自由グラフ生成フレームワークを提案する。
潜在表現の階層化を活用することで、モデルは明示的なノード順序付けを必要とせずに、グラフ全体のスケールを段階的に生成する。
ジェネリックグラフと分子グラフの両方の実験は、この手法の可能性を実証し、最先端の手法よりも最大3桁の推論速度を達成した。
論文 参考訳(メタデータ) (2025-03-30T22:30:34Z) - Best of Both Worlds: Advantages of Hybrid Graph Sequence Models [20.564009321626198]
グラフ上での学習にグラフシーケンスモデルを採用するための統一フレームワークを提案する。
本稿では,グローバルおよびローカルなグラフタスクのレンズを用いて,トランスフォーマーと現代のリカレントモデルの表現能力を評価する。
GSM++は階層的親和性クラスタリング(HAC)アルゴリズムを用いてグラフを階層的シーケンスにトークン化する高速ハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-11-23T23:24:42Z) - GraphRCG: Self-Conditioned Graph Generation [78.69810678803248]
本稿では,グラフ分布を明示的にモデル化する自己条件付きグラフ生成フレームワークを提案する。
本フレームワークは, 既存のグラフ生成手法に比べて, 学習データに対するグラフ品質と忠実度において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-02T02:28:20Z) - Transformers as Graph-to-Graph Models [13.630495199720423]
トランスフォーマーは本質的にグラフからグラフへのモデルであり、シーケンスは特別なケースに過ぎない、と我々は主張する。
我々のGraph-to-Graph Transformerアーキテクチャは,グラフエッジを注目重み計算に入力し,注目機能を備えたグラフエッジを予測することで,これを明確化する。
論文 参考訳(メタデータ) (2023-10-27T07:21:37Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - Exphormer: Sparse Transformers for Graphs [5.055213942955148]
パワフルでスケーラブルなグラフトランスフォーマーを構築するためのフレームワークであるExphormerを紹介します。
Exphormerは、様々なグラフデータセット上で、競争力のある実験結果を持つモデルを生成する。
論文 参考訳(メタデータ) (2023-03-10T18:59:57Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - GrannGAN: Graph annotation generative adversarial networks [72.66289932625742]
本稿では,高次元分布をモデル化し,グラフスケルトンと整合した複雑な関係特徴構造を持つデータの新しい例を生成することの問題点を考察する。
提案するモデルは,タスクを2つのフェーズに分割することで,各データポイントのグラフ構造に制約されたデータ特徴を生成する問題に対処する。
第一に、与えられたグラフのノードに関連する機能の分布をモデル化し、第二に、ノードのフィーチャに条件付きでエッジ機能を補完する。
論文 参考訳(メタデータ) (2022-12-01T11:49:07Z) - Order Matters: Probabilistic Modeling of Node Sequence for Graph
Generation [18.03898476141173]
グラフ生成モデルはグラフ上の分布を定義する。
グラフ上の正確な結合確率とシーケンシャルプロセスのノード順序を導出する。
我々は,従来の手法のアドホックノード順序を使わずに,この境界を最大化してグラフ生成モデルを訓練する。
論文 参考訳(メタデータ) (2021-06-11T06:37:52Z) - Learning Graphon Autoencoders for Generative Graph Modeling [91.32624399902755]
Graphonは任意のサイズでグラフを生成する非パラメトリックモデルであり、グラフから簡単に誘導できる。
解析可能でスケーラブルなグラフ生成モデルを構築するために,textitgraphon autoencoder という新しいフレームワークを提案する。
線形グルーポン分解モデルはデコーダとして機能し、潜在表現を活用して誘導されたグルーポンを再構成する。
論文 参考訳(メタデータ) (2021-05-29T08:11:40Z) - A Graph VAE and Graph Transformer Approach to Generating Molecular
Graphs [1.6631602844999724]
グラフ畳み込み層とグラフプーリング層をフル活用した変分オートエンコーダとトランスベースモデルを提案する。
トランスモデルは新しいノードエンコーディング層を実装し、一般的にトランスフォーマーで使用される位置エンコーディングを置き換え、グラフ上で動く位置情報を持たないトランスフォーマーを生成する。
実験では、生成ノードとエッジの両方の重要性を考慮して、分子生成のベンチマークタスクを選択しました。
論文 参考訳(メタデータ) (2021-04-09T13:13:06Z) - Dirichlet Graph Variational Autoencoder [65.94744123832338]
本稿では,グラフクラスタメンバシップを潜在因子とするDGVAE(Dirichlet Graph Variational Autoencoder)を提案する。
バランスグラフカットにおける低パス特性により、入力グラフをクラスタメンバシップにエンコードする、Heattsと呼ばれるGNNの新しい変種を提案する。
論文 参考訳(メタデータ) (2020-10-09T07:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。