論文の概要: HollowFlow: Efficient Sample Likelihood Evaluation using Hollow Message Passing
- arxiv url: http://arxiv.org/abs/2510.21542v1
- Date: Fri, 24 Oct 2025 15:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.516163
- Title: HollowFlow: Efficient Sample Likelihood Evaluation using Hollow Message Passing
- Title(参考訳): HollowFlow: Hollow Message Passing を用いた効率的なサンプル類似度評価
- Authors: Johann Flemming Gloy, Simon Olsson,
- Abstract要約: 新たなグラフニューラルネットワーク(NoBGNN)を活用したフローベース生成モデルである$textitHollowFlow$を紹介した。
ブロック対角ジャコビアン構造を強制することにより、ホローフロー確率は、一定の数の後方通過で$n$で評価され、最大$mathcalO(n2)$のスピードアップが得られる。
- 参考スコア(独自算出の注目度): 2.220152876549942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow and diffusion-based models have emerged as powerful tools for scientific applications, particularly for sampling non-normalized probability distributions, as exemplified by Boltzmann Generators (BGs). A critical challenge in deploying these models is their reliance on sample likelihood computations, which scale prohibitively with system size $n$, often rendering them infeasible for large-scale problems. To address this, we introduce $\textit{HollowFlow}$, a flow-based generative model leveraging a novel non-backtracking graph neural network (NoBGNN). By enforcing a block-diagonal Jacobian structure, HollowFlow likelihoods are evaluated with a constant number of backward passes in $n$, yielding speed-ups of up to $\mathcal{O}(n^2)$: a significant step towards scaling BGs to larger systems. Crucially, our framework generalizes: $\textbf{any equivariant GNN or attention-based architecture}$ can be adapted into a NoBGNN. We validate HollowFlow by training BGs on two different systems of increasing size. For both systems, the sampling and likelihood evaluation time decreases dramatically, following our theoretical scaling laws. For the larger system we obtain a $10^2\times$ speed-up, clearly illustrating the potential of HollowFlow-based approaches for high-dimensional scientific problems previously hindered by computational bottlenecks.
- Abstract(参考訳): フローと拡散に基づくモデルは、ボルツマン・ジェネレータ(英語版)(BG)の例のように、特に非正規化確率分布をサンプリングするための科学的応用のための強力なツールとして登場した。
これらのモデルをデプロイする上で重要な課題は、サンプルの確率計算に依存することだ。
そこで我々は,新しい非バックトラックグラフニューラルネットワーク(NoBGNN)を活用したフローベース生成モデルである$\textit{HollowFlow}$を紹介した。
ブロック対角ジャコビアン構造を強制することにより、ホローフローの確率は一定数の後方通過で$n$で評価され、最大で$\mathcal{O}(n^2)$となる。
重要なことに、我々のフレームワークは次のように一般化している。 $\textbf{any equivariant GNN or attention-based architecture}$はNoBGNNに適応できる。
サイズが大きくなる2つの異なるシステムでBGを訓練し,HollowFlowを検証する。
どちらのシステムにおいても,我々の理論的スケーリング法則に従い,サンプリング時間と可能性評価時間は劇的に減少する。
より大規模なシステムでは、計算ボトルネックによって妨げられた高次元科学的問題に対するHollowFlowベースのアプローチの可能性を明確に示し、10^2\times$のスピードアップが得られる。
関連論文リスト
- Boundary-aware Decoupled Flow Networks for Realistic Extreme Rescaling [49.215957313126324]
Invertible rescaling Network (IRN) やgenerative adversarial Network (GAN) などを含む最近の生成手法は、画像再スケーリングにおいて例外的な性能を示した。
しかし、IRNベースの手法は過度に滑らかな結果を生成する傾向にあり、一方、GANベースの手法は偽の細部を容易に生成する。
本稿では,現実的かつ視覚的に満足な結果を生成するために,境界対応デカップリングフローネットワーク(BDFlow)を提案する。
論文 参考訳(メタデータ) (2024-05-05T14:05:33Z) - Investigating Generalization Behaviours of Generative Flow Networks [2.9323961779599736]
生成フローネットワーク(英: Generative Flow Networks, GFlowNets)は、離散空間上の非正規化確率質量関数を学習するための生成フレームワークである。
GFlowNetの一般化の仮説的なメカニズムを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-07T23:02:53Z) - Local Search GFlowNets [85.0053493167887]
Generative Flow Networks (GFlowNets) は、報酬に比例した離散オブジェクト上の分布を学習するアモータイズされたサンプリング手法である。
GFlowNetsは、多様なサンプルを生成する素晴らしい能力を示していますが、広いサンプル空間での過剰な探索のために、常に高い報酬を持つサンプルを生成するのに苦労することがあります。
本稿では,局所探索によるGFlowNetsの学習を提案する。
論文 参考訳(メタデータ) (2023-10-04T10:27:17Z) - GFlowOut: Dropout with Generative Flow Networks [76.59535235717631]
モンテカルロ・ドロップアウトは近似推論の比較的安価な方法として広く利用されている。
最近の研究は、ドロップアウトマスクを潜伏変数と見なすことができ、変動推論で推測できることを示している。
GFlowOutleveragesは、最近提案されたジェネレーティブフローネットワーク(GFlowNets)の確率的フレームワークを使用して、ドロップアウトマスク上の後部分布を学習する。
論文 参考訳(メタデータ) (2022-10-24T03:00:01Z) - Learning the Structure of Large Networked Systems Obeying Conservation
Laws [5.86054250638667]
ネットワーク系における保存法則は、$X = B* Y$という形のバランス方程式としてモデル化することができる。
いくつかの実用的なシステムでは、ネットワーク構造はよく知られておらず、データから推定する必要がある。
高次元状態におけるこの問題に対する新たな$ell_1$-regularized maximum max 推定器を提案する。
論文 参考訳(メタデータ) (2022-06-14T18:16:52Z) - Hierarchical autoregressive neural networks for statistical systems [0.05156484100374058]
我々は、例えばスピンのような物理的自由度の階層的な結合を、システムの線形範囲$L$のスケーリングに置き換えるニューロンに提案する。
我々は,2次元Isingモデルに対して,最大128×128$スピンの格子をシミュレートし,時間ベンチマークを512×512$の格子に到達させることで,その2次元Isingモデルに対するアプローチを実証した。
論文 参考訳(メタデータ) (2022-03-21T13:55:53Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。