論文の概要: Hierarchical Bayesian Flow Networks for Molecular Graph Generation
- arxiv url: http://arxiv.org/abs/2510.10211v1
- Date: Sat, 11 Oct 2025 13:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.845055
- Title: Hierarchical Bayesian Flow Networks for Molecular Graph Generation
- Title(参考訳): 分子グラフ生成のための階層型ベイズフローネットワーク
- Authors: Yida Xiong, Jiameng Chen, Kun Li, Hongzhi Zhang, Xiantao Cai, Wenbin Hu,
- Abstract要約: GraphBFNは、分布のパラメータに基づいて動作するベイズフローネットワークに基づく、新しい階層的な粗大きめのフレームワークである。
提案手法は,QM9およびZINC250k分子グラフ生成ベンチマーク上で,新しい最先端結果を設定することにより,優れた性能と高速な生成を実現することを実証する。
- 参考スコア(独自算出の注目度): 15.495256638671284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Molecular graph generation is essentially a classification generation problem, aimed at predicting categories of atoms and bonds. Currently, prevailing paradigms such as continuous diffusion models are trained to predict continuous numerical values, treating the training process as a regression task. However, the final generation necessitates a rounding step to convert these predictions back into discrete classification categories, which is intrinsically a classification operation. Given that the rounding operation is not incorporated during training, there exists a significant discrepancy between the model's training objective and its inference procedure. As a consequence, an excessive emphasis on point-wise precision can lead to overfitting and inefficient learning. This occurs because considerable efforts are devoted to capturing intra-bin variations that are ultimately irrelevant to the discrete nature of the task at hand. Such a flaw results in diminished molecular diversity and constrains the model's generalization capabilities. To address this fundamental limitation, we propose GraphBFN, a novel hierarchical coarse-to-fine framework based on Bayesian Flow Networks that operates on the parameters of distributions. By innovatively introducing Cumulative Distribution Function, GraphBFN is capable of calculating the probability of selecting the correct category, thereby unifying the training objective with the sampling rounding operation. We demonstrate that our method achieves superior performance and faster generation, setting new state-of-the-art results on the QM9 and ZINC250k molecular graph generation benchmarks.
- Abstract(参考訳): 分子グラフ生成は本質的には、原子と結合のカテゴリを予測することを目的とした分類生成問題である。
現在、連続拡散モデルのような一般的なパラダイムは、連続的な数値を予測するために訓練されており、トレーニングプロセスは回帰タスクとして扱われている。
しかし、最終世代は、これらの予測を本質的に分類操作である個別の分類カテゴリに戻すための丸いステップを必要とする。
ラウンドリング操作がトレーニング中に組み込まれていないことを考えると、モデルのトレーニング目標と推論手順との間には大きな相違点が存在する。
その結果、ポイントワイズ精度の過度な強調は、過度に適合し、非効率な学習につながる可能性がある。
これは、それまでのタスクの離散的な性質とは無関係に、ビン内の変動を捉えることにかなりの努力が費やされているためである。
このような欠陥は分子多様性を低下させ、モデルの一般化能力を制約する。
この基本的な制限に対処するため,分布のパラメータに基づいたベイズフローネットワークに基づく新しい階層的粗大きめフレームワークであるGraphBFNを提案する。
累積分布関数を革新的に導入することにより、GraphBFNは正しいカテゴリを選択する確率を算出し、サンプリングラウンド操作とトレーニング目標を統一することができる。
提案手法は,QM9およびZINC250k分子グラフ生成ベンチマーク上で,新しい最先端結果を設定することにより,優れた性能と高速な生成を実現することを実証する。
関連論文リスト
- Two Birds with One Stone: Enhancing Uncertainty Quantification and Interpretability with Graph Functional Neural Process [27.760002432327962]
グラフニューラルネットワーク(GNN)は、グラフデータに強力なツールである。
しかし、それらの予測は誤校正され、解釈性に欠ける。
本稿では,新しい不確実性と解釈可能なグラフ分類モデルを提案する。
論文 参考訳(メタデータ) (2025-08-23T17:48:05Z) - A Bayesian Flow Network Framework for Chemistry Tasks [0.0]
ベイジアンフローネットワークに基づく化学タスクを処理する言語モデルであるChemBFNを紹介する。
サンプリング品質を改善するために,新しい精度スケジュールを提案する。
本手法は, 少ないサンプリングステップを用いても, 十分な多様性を持つ分子を生成するのに適していることを示す。
論文 参考訳(メタデータ) (2024-07-28T04:46:32Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Bayesian Layer Graph Convolutioanl Network for Hyperspetral Image
Classification [24.91896527342631]
グラフ畳み込みネットワーク(GCN)ベースのモデルは、素晴らしいパフォーマンスを示している。
点推定に基づくディープラーニングフレームワークは、一般化が低く、分類結果の不確実性を定量化できない。
本稿では,点推定に基づくニューラルネットワークへの挿入層としてベイズ的アイデアを用いたベイズ的層を提案する。
HSIデータセットのサンプル不均衡問題を解決するためにGAN(Generative Adversarial Network)が構築されている。
論文 参考訳(メタデータ) (2022-11-14T12:56:56Z) - Last Layer Marginal Likelihood for Invariance Learning [12.00078928875924]
我々は、より大きな確率関数のクラスに対する推論を行うことができるような、限界確率に対する新しい下界を導入する。
我々は、最後の層にガウス的プロセスを持つアーキテクチャを使用することで、このアプローチをニューラルネットワークに導入することに取り組んでいます。
論文 参考訳(メタデータ) (2021-06-14T15:40:51Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。