論文の概要: Scalable Deep Generative Modeling for Sparse Graphs
- arxiv url: http://arxiv.org/abs/2006.15502v1
- Date: Sun, 28 Jun 2020 04:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:05:59.124076
- Title: Scalable Deep Generative Modeling for Sparse Graphs
- Title(参考訳): スパースグラフのためのスケーラブルなDeep Generative Modeling
- Authors: Hanjun Dai, Azade Nazi, Yujia Li, Bo Dai, Dale Schuurmans
- Abstract要約: 既存のディープニューラルネットワーク手法では、隣接行列を構築することで、$Omega(n2)$複雑さを必要とする。
我々は,この空間を利用して完全隣接行列を生成する新しい自己回帰モデルBiGGを開発した。
トレーニング中、この自己回帰モデルは$O(log n)$同期ステージで並列化できる。
- 参考スコア(独自算出の注目度): 105.60961114312686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning graph generative models is a challenging task for deep learning and
has wide applicability to a range of domains like chemistry, biology and social
science. However current deep neural methods suffer from limited scalability:
for a graph with $n$ nodes and $m$ edges, existing deep neural methods require
$\Omega(n^2)$ complexity by building up the adjacency matrix. On the other
hand, many real world graphs are actually sparse in the sense that $m\ll n^2$.
Based on this, we develop a novel autoregressive model, named BiGG, that
utilizes this sparsity to avoid generating the full adjacency matrix, and
importantly reduces the graph generation time complexity to $O((n + m)\log n)$.
Furthermore, during training this autoregressive model can be parallelized with
$O(\log n)$ synchronization stages, which makes it much more efficient than
other autoregressive models that require $\Omega(n)$. Experiments on several
benchmarks show that the proposed approach not only scales to orders of
magnitude larger graphs than previously possible with deep autoregressive graph
generative models, but also yields better graph generation quality.
- Abstract(参考訳): グラフ生成モデルを学ぶことはディープラーニングにとって難しい課題であり、化学、生物学、社会科学など幅広い分野に適用可能である。
n$ノードとm$エッジを持つグラフの場合、既存のディープニューラルメソッドは、隣接マトリックスを構築することで、$\omega(n^2)$の複雑さを必要とする。
一方、多くの実世界のグラフは実際には$m\ll n^2$という意味でスパースである。
そこで我々は,この空間を利用して全隣接行列の生成を回避し,グラフ生成時間の複雑さを$O(n+)に低減する,新しい自己回帰モデルBiGGを開発した。
m)\log
n) である。
さらに、トレーニング中、この自己回帰モデルは$O(\log)で並列化できる。
n)$同期ステージ。$\omegaを必要とする他の自己回帰モデルよりもはるかに効率的である
(n)$。
いくつかのベンチマーク実験において、提案手法は、より深い自己回帰グラフ生成モデルで従来より桁違いに大きなグラフにスケールするだけでなく、より優れたグラフ生成品質をもたらすことを示した。
関連論文リスト
- CliquePH: Higher-Order Information for Graph Neural Networks through Persistent Homology on Clique Graphs [15.044471983688249]
本稿では,グラフ内の高次構造に関する情報を抽出する新しい手法を提案する。
テスト精度は最大で31%向上する。
論文 参考訳(メタデータ) (2024-09-12T16:56:26Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Improved High-Probability Regret for Adversarial Bandits with
Time-Varying Feedback Graphs [62.52390282012508]
我々は、T$ラウンド以上の時間変化フィードバックグラフを持つ、敵対的な$K$武器付きバンディットに対する高い確率的後悔境界について検討する。
提案アルゴリズムは,高い確率で最適に後悔する$widetildemathcalO((sum_t=1Talpha_t)1/2+max_tin[T]alpha_t]$を達成するアルゴリズムを開発した。
また,弱可観測グラフに対する最適高確率残差を求めるアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T04:36:15Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Permute Me Softly: Learning Soft Permutations for Graph Representations [26.581982471005674]
グラフニューラルネットワーク(GNN)は、グラフを用いた機械学習の主流パラダイムとして浮上している。
MPNNの研究は、主にメッセージパッシングニューラルネットワーク(MPNN)のファミリーに焦点を当てている。
論文 参考訳(メタデータ) (2021-10-05T08:20:51Z) - Order Matters: Probabilistic Modeling of Node Sequence for Graph
Generation [18.03898476141173]
グラフ生成モデルはグラフ上の分布を定義する。
グラフ上の正確な結合確率とシーケンシャルプロセスのノード順序を導出する。
我々は,従来の手法のアドホックノード順序を使わずに,この境界を最大化してグラフ生成モデルを訓練する。
論文 参考訳(メタデータ) (2021-06-11T06:37:52Z) - A step towards neural genome assembly [0.0]
我々はMPNNモデルを最大集約器で訓練し、グラフ単純化のためのいくつかのアルゴリズムを実行する。
アルゴリズムがうまく学習され、トレーニングで使用されるグラフの最大20倍の大きさのグラフにスケールできることを示す。
論文 参考訳(メタデータ) (2020-11-10T10:12:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。