論文の概要: Sparse Probabilistic Graph Circuits
- arxiv url: http://arxiv.org/abs/2508.07763v1
- Date: Mon, 11 Aug 2025 08:47:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.01647
- Title: Sparse Probabilistic Graph Circuits
- Title(参考訳): スパース確率グラフ回路
- Authors: Martin Rektoris, Milan Papež, Václav Šmídl, Tomáš Pevný,
- Abstract要約: Sparse PGCsは,スパースグラフの表現を直接操作する,トラクタブル生成モデルの新たなクラスである。
ド・ノボ薬物設計の文脈では、SPGCが正確な推論能力を保持し、メモリ効率と推論速度を改善し、重要な指標における難解なDGMの性能に匹敵することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models (DGMs) for graphs achieve impressively high expressive power thanks to very efficient and scalable neural networks. However, these networks contain non-linearities that prevent analytical computation of many standard probabilistic inference queries, i.e., these DGMs are considered \emph{intractable}. While recently proposed Probabilistic Graph Circuits (PGCs) address this issue by enabling \emph{tractable} probabilistic inference, they operate on dense graph representations with $\mathcal{O}(n^2)$ complexity for graphs with $n$ nodes and \emph{$m$ edges}. To address this scalability issue, we introduce Sparse PGCs, a new class of tractable generative models that operate directly on sparse graph representation, reducing the complexity to $\mathcal{O}(n + m)$, which is particularly beneficial for $m \ll n^2$. In the context of de novo drug design, we empirically demonstrate that SPGCs retain exact inference capabilities, improve memory efficiency and inference speed, and match the performance of intractable DGMs in key metrics.
- Abstract(参考訳): グラフの深部生成モデル(DGM)は、非常に効率的でスケーラブルなニューラルネットワークのおかげで、驚くほど高い表現力を達成する。
しかし、これらのネットワークは、多くの標準的な確率的推論クエリの分析計算を防止する非線形性、すなわち、これらのDGMは \emph{intractable} と見なされる。
最近提案された確率的グラフ回路(PGC)は、確率的推論を可能にしてこの問題に対処するが、$n$ノードを持つグラフと \emph{$m$ edges} を持つグラフに対して$\mathcal{O}(n^2)$複雑さを持つ密度の高いグラフ表現を演算する。
このスケーラビリティ問題に対処するために、スパースグラフ表現を直接操作し、複雑さを$\mathcal{O}(n + m)$に減らし、特に$m \ll n^2$にとって有益である。
ド・ノボ薬物設計の文脈では、SPGCが正確な推論能力を保持し、メモリ効率と推論速度を向上し、重要な指標における難解なDGMの性能に匹敵することを示した。
関連論文リスト
- GC-Flow: A Graph-Based Flow Network for Effective Clustering [10.354035049272095]
グラフ畳み込みネットワーク(GCN)は、グラフデータの半教師付き分類のために、クラス後部$p(y|mathbfx)$を直接モデル化する固有モデルである。
この作業では、GCN層を置き換える正規化フローを設計し、クラス条件付き可能性$p(mathbfx|y)$とクラス前の$p(y)$の両方をモデル化する表現モデルを作成します。
結果のニューラルネットワークであるGC-Flowは、装備中にグラフ畳み込み操作を保持する
論文 参考訳(メタデータ) (2023-05-26T22:11:38Z) - Expander Graph Propagation [0.0]
本稿では,拡張グラフ上での情報伝達に基づくエレガントなアプローチを提案する。
EGPは、セットアップに最小限の労力を要しながら、上記の懸念に対処できることを示します。
我々の分析は、GNNの過剰な監視に対処する、スケーラブルな方法の新たなクラスへの道を開くものだと信じています。
論文 参考訳(メタデータ) (2022-10-06T15:36:37Z) - From Local to Global: Spectral-Inspired Graph Neural Networks [28.858773653743075]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータのための強力なディープラーニング手法である。
MPNNは、局所グラフ地区の信号を集約して結合するメッセージパッシングアルゴリズムである。
MPNNは、過密や過密といった問題に悩まされる可能性がある。
論文 参考訳(メタデータ) (2022-09-24T17:19:00Z) - The Exact Class of Graph Functions Generated by Graph Neural Networks [43.25172578943894]
グラフ関数と出力が同一のグラフニューラルネットワーク(GNN)?
本稿では,この疑問に完全に答え,GNNで表現可能なグラフ問題のクラスを特徴付ける。
この条件は2次的に多くの制約をチェックすることで効率よく検証できることを示す。
論文 参考訳(メタデータ) (2022-02-17T18:54:27Z) - AnchorGAE: General Data Clustering via $O(n)$ Bipartite Graph
Convolution [79.44066256794187]
我々は、グラフ畳み込みネットワーク(GCN)を構築するために使用される生成グラフモデルを導入することにより、グラフに非グラフデータセットを変換する方法を示す。
アンカーによって構築された二部グラフは、データの背後にある高レベル情報を利用するために動的に更新される。
理論的には、単純な更新が退化につながることを証明し、それに従って特定の戦略が設計される。
論文 参考訳(メタデータ) (2021-11-12T07:08:13Z) - GNNAutoScale: Scalable and Expressive Graph Neural Networks via
Historical Embeddings [51.82434518719011]
GNNAutoScale(GAS)は、任意のメッセージパスGNNを大規模グラフにスケールするためのフレームワークである。
ガスは、前回のトレーニングの繰り返しから過去の埋め込みを利用して計算グラフのサブツリー全体を掘り起こします。
ガスは大規模グラフ上で最先端のパフォーマンスに達する。
論文 参考訳(メタデータ) (2021-06-10T09:26:56Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Hybrid Stochastic-Deterministic Minibatch Proximal Gradient:
Less-Than-Single-Pass Optimization with Nearly Optimal Generalization [83.80460802169999]
HSDMPGは、学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成可能であることを示す。
損失係数について、HSDMPGは学習モデル上で過大なエラーの順序である$mathcalObig(1/sttnbig)$を達成できることを示す。
論文 参考訳(メタデータ) (2020-09-18T02:18:44Z) - Scalable Deep Generative Modeling for Sparse Graphs [105.60961114312686]
既存のディープニューラルネットワーク手法では、隣接行列を構築することで、$Omega(n2)$複雑さを必要とする。
我々は,この空間を利用して完全隣接行列を生成する新しい自己回帰モデルBiGGを開発した。
トレーニング中、この自己回帰モデルは$O(log n)$同期ステージで並列化できる。
論文 参考訳(メタデータ) (2020-06-28T04:37:57Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。