論文の概要: GraDE: A Graph Diffusion Estimator for Frequent Subgraph Discovery in Neural Architectures
- arxiv url: http://arxiv.org/abs/2602.03257v1
- Date: Tue, 03 Feb 2026 08:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.333447
- Title: GraDE: A Graph Diffusion Estimator for Frequent Subgraph Discovery in Neural Architectures
- Title(参考訳): GraDE: ニューラルネットワークにおける頻繁なサブグラフ発見のためのグラフ拡散推定器
- Authors: Yikang Yang, Zhengxin Yang, Minghao Luo, Luzhou Peng, Hongxiao Li, Wanling Gao, Lei Wang, Jianfeng Zhan,
- Abstract要約: GraDEは拡散誘導検索フレームワークであり、計算可能性と発見能力の両方を保証する。
GraDEはグラフ拡散モデルを導入し、学習された分布の中でそれらの典型性を評価することで、頻繁な部分グラフを識別する。
- 参考スコア(独自算出の注目度): 5.269719189733366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding frequently occurring subgraph patterns or network motifs in neural architectures is crucial for optimizing efficiency, accelerating design, and uncovering structural insights. However, as the subgraph size increases, enumeration-based methods are perfectly accurate but computationally prohibitive, while sampling-based methods are computationally tractable but suffer from a severe decline in discovery capability. To address these challenges, this paper proposes GraDE, a diffusion-guided search framework that ensures both computational feasibility and discovery capability. The key innovation is the Graph Diffusion Estimator (GraDE), which is the first to introduce graph diffusion models to identify frequent subgraphs by scoring their typicality within the learned distribution. Comprehensive experiments demonstrate that the estimator achieves superior ranking accuracy, with up to 114\% improvement compared to sampling-based baselines. Benefiting from this, the proposed framework successfully discovers large-scale frequent patterns, achieving up to 30$\times$ higher median frequency than sampling-based methods.
- Abstract(参考訳): ニューラルネットワークで頻繁に発生するサブグラフパターンやネットワークモチーフを見つけることは、効率を最適化し、設計を加速し、構造的な洞察を明らかにするために不可欠である。
しかし, グラフサイズが大きくなるにつれて, 列挙法は完全に正確だが, 計算が禁止される一方で, サンプリング法は計算処理が可能であるが, 発見能力の低下に悩まされている。
これらの課題に対処するために,拡散誘導型探索フレームワークであるGraDEを提案する。
主要な革新はグラフ拡散推定器(GraDE)であり、グラフ拡散モデルを導入して、学習された分布の中でそれらの典型性を評価することで、頻繁な部分グラフを識別する。
総合的な実験により、推定器はサンプリングベースベースラインに比べて最大114倍の精度で精度が向上することが示された。
これより、提案フレームワークは、サンプリングベース手法よりも30$\times$高い中央周波数を達成し、大規模な頻繁なパターンの発見に成功している。
関連論文リスト
- Test-time scaling of diffusions with flow maps [68.79792714591564]
テスト時の拡散モデルを改善するための一般的なレシピは、報酬の勾配を拡散そのものの力学に導入することである。
フローマップを直接扱うことで,簡単な解を提案する。
本研究では, 流図と流速場の関係を利用して, 従来のテスト時間法よりも精度の高いフローマップトラジェクトリ・ティルティング (FMTT) アルゴリズムを構築した。
論文 参考訳(メタデータ) (2025-11-27T18:44:12Z) - Studying and Improving Graph Neural Network-based Motif Estimation [0.24578723416255746]
グラフニューラルネットワーク(GNN)は,グラフ表現学習において主要な手法である。
ネットワークモチーフ重要度予測(SP)へのそれらの適用は未定であり、文献に定評のあるベンチマークは存在しない。
本稿では,SP推定をサブグラフ周波数推定に依存しないタスクとしてフレーミングすることで,この問題に対処することを提案する。
提案手法は,周波数カウントから直接SP推定へ移行し,マルチターゲット回帰として問題を変調する。
論文 参考訳(メタデータ) (2025-05-30T15:17:23Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Hub-aware Random Walk Graph Embedding Methods for Classification [44.99833362998488]
ノード分類問題に特化して設計されたランダムウォークに基づく2つの新しいグラフ埋め込みアルゴリズムを提案する。
提案手法は,実世界のネットワークの埋め込みを訓練した3つの分類アルゴリズムの分類性能を解析して実験的に評価する。
論文 参考訳(メタデータ) (2022-09-15T20:41:18Z) - Subgraph Frequency Distribution Estimation using Graph Neural Networks [17.02487540304784]
本稿では,グラフニューラルネットワークを用いた新しい表現学習フレームワークであるGNNSを提案する。
我々のフレームワークは、ノード、サブグラフ、グラフの階層的な埋め込みを学習する推論モデルと生成モデルを含む。
学習したモデルと埋め込みを用いて、サブグラフを高度にスケーラブルで並列な方法でサンプリングし、これらのサンプリングされたサブグラフに基づいて周波数分布推定を行う。
論文 参考訳(メタデータ) (2022-07-14T06:23:38Z) - Ordered Subgraph Aggregation Networks [19.18478955240166]
グラフ強化グラフニューラルネットワーク(GNN)が登場し、標準(メッセージパス)GNNの表現力を確実に向上させている。
本稿では, 理論的枠組みを導入し, サブグラフ強化GNNの表現性を拡張した。
部分グラフサイズの増加は常に表現力を高め、それらの制限をよりよく理解することを示します。
論文 参考訳(メタデータ) (2022-06-22T15:19:34Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。