論文の概要: Boosted GFlowNets: Improving Exploration via Sequential Learning
- arxiv url: http://arxiv.org/abs/2511.09677v1
- Date: Fri, 14 Nov 2025 01:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.408759
- Title: Boosted GFlowNets: Improving Exploration via Sequential Learning
- Title(参考訳): Boosted GFlowNets: シーケンシャルラーニングによる探索の改善
- Authors: Pedro Dall'Antonia, Tiago da Silva, Daniel Augusto de Souza, César Lincoln C. Mattos, Diego Mesquita,
- Abstract要約: Boosted GFlowNetsは、GFlowNetsのアンサンブルを逐次訓練する手法で、それぞれが、以前のモデルで既に捕獲された質量を補償する残留報酬を最適化する。
本稿では, マルチモーダル合成ベンチマークとペプチド設計タスクにおいて, GFlowNetsの探索とサンプルの多様性を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 13.119757506183392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFlowNets) are powerful samplers for compositional objects that, by design, sample proportionally to a given non-negative reward. Nonetheless, in practice, they often struggle to explore the reward landscape evenly: trajectories toward easy-to-reach regions dominate training, while hard-to-reach modes receive vanishing or uninformative gradients, leading to poor coverage of high-reward areas. We address this imbalance with Boosted GFlowNets, a method that sequentially trains an ensemble of GFlowNets, each optimizing a residual reward that compensates for the mass already captured by previous models. This residual principle reactivates learning signals in underexplored regions and, under mild assumptions, ensures a monotone non-degradation property: adding boosters cannot worsen the learned distribution and typically improves it. Empirically, Boosted GFlowNets achieve substantially better exploration and sample diversity on multimodal synthetic benchmarks and peptide design tasks, while preserving the stability and simplicity of standard trajectory-balance training.
- Abstract(参考訳): 生成フローネットワーク(GFlowNets)は、設計上、与えられた非負の報酬に比例する、構成オブジェクトのための強力なサンプルである。
それにもかかわらず、実際には、彼らは報酬の風景を均等に探究するのに苦労することが多く、すなわち、易解な地域への軌道が訓練を支配しているのに対して、難解なモードは消滅または非形式的な勾配を受けており、高水準の地域をカバーしていない。
我々は、GFlowNetsのアンサンブルを逐次訓練するBoosted GFlowNetsを用いて、この不均衡に対処する。
この残留原理は、探索されていない地域での学習信号を再活性化し、穏やかな仮定の下では、単調な非劣化特性を保証する。
実証的に、Boosted GFlowNetsは、標準軌道バランストレーニングの安定性と単純さを維持しながら、マルチモーダルな合成ベンチマークとペプチド設計タスクにおいて、かなり優れた探索とサンプル多様性を実現している。
関連論文リスト
- MG2FlowNet: Accelerating High-Reward Sample Generation via Enhanced MCTS and Greediness Control [19.49552596070782]
Generative Flow Networks (GFlowNets) は、与えられた報酬関数に比例した分布からサンプルを学習することで、多種多様な高次構造化オブジェクトを生成する強力なツールとして登場した。
本研究では,モンテカルロ木探索(MCTS)をGFlowNetsサンプリングプロセスに統合し,探索とエクスプロイトを適応的にバランスさせる。
本手法は,高次領域の発見速度を早めるだけでなく,生成分布の多様性を保ちながら,連続的に高次領域を生成できる。
論文 参考訳(メタデータ) (2025-10-01T12:09:04Z) - Efficient Regression-Based Training of Normalizing Flows for Boltzmann Generators [85.25962679349551]
ボルツマン・ジェネレータ(BG)は効率的なサンプリングと可能性を提供するが、最大可能性によるトレーニングはしばしば不安定であり、計算的に困難である。
本稿では,従来の最大値トレーニングの数値不安定性と計算課題を回避し,新しい,スケーラブルなトレーニング目標である正規化フローの回帰トレーニングを提案する。
論文 参考訳(メタデータ) (2025-06-01T20:32:27Z) - Loss-Guided Auxiliary Agents for Overcoming Mode Collapse in GFlowNets [22.653875450786444]
Loss-Guided GFlowNets(LGGFN)は、GFlowNetのトレーニング損失によって、補助的なGFlowNetの探索が直接的にテキスト駆動される新しいアプローチである。
この目的の探査は、多種多様な高解像度サンプルの発見を著しく加速させる。
論文 参考訳(メタデータ) (2025-05-21T08:27:10Z) - Efficient Diversity-Preserving Diffusion Alignment via Gradient-Informed GFlowNets [65.42834731617226]
そこで我々は,Nabla-GFlowNetと呼ばれる拡散モデルファインタニングのための強化学習手法を提案する。
提案手法は,大規模テキスト条件による画像拡散モデルである安定拡散の高速かつ多様かつ事前保存的な微調整を実現する。
論文 参考訳(メタデータ) (2024-12-10T18:59:58Z) - On Divergence Measures for Training GFlowNets [3.7277730514654555]
生成フローネットワーク(Generative Flow Networks, GFlowNets)は、構成可能なオブジェクト上の非正規分布のサンプルとして設計された、償却推論モデルである。
伝統的に、GFlowNetsのトレーニング手順は、提案(フォワードポリシー)とターゲット(バックポリシー)の分布の対数二乗差を最小限にすることを目指している。
我々は、Renyi-$alpha$'s, Tsallis-$alpha$'s, reverse and forward KL'sという4つの分岐測度を概観し、GFlowNetsの学習文脈における勾配に対する統計的に効率的な推定器を設計する。
論文 参考訳(メタデータ) (2024-10-12T03:46:52Z) - On Generalization for Generative Flow Networks [54.20924253330039]
生成フローネットワーク(GFlowNets)は、非正規化確率分布からのサンプリングの課題に対処するために設計された革新的な学習パラダイムとして登場した。
本稿では,GFlowNetsの文脈で一般化を形式化し,一般化と安定性を結びつけるとともに,これらのモデルの能力を評価する実験を行い,報酬関数の未知の部分を明らかにする。
論文 参考訳(メタデータ) (2024-07-03T13:42:21Z) - Looking Backward: Retrospective Backward Synthesis for Goal-Conditioned GFlowNets [27.33222647437964]
Generative Flow Networks (GFlowNets) は、多種多様なハイリワード候補を生成する顕著な能力を示した。
しかし、そのようなモデルの訓練は、極めて少ない報酬のために困難である。
この問題を解決するために,textbfRetrospective textbfBackward textbfSynthesis (textbfRBS) という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-03T09:44:10Z) - Local Search GFlowNets [85.0053493167887]
Generative Flow Networks (GFlowNets) は、報酬に比例した離散オブジェクト上の分布を学習するアモータイズされたサンプリング手法である。
GFlowNetsは、多様なサンプルを生成する素晴らしい能力を示していますが、広いサンプル空間での過剰な探索のために、常に高い報酬を持つサンプルを生成するのに苦労することがあります。
本稿では,局所探索によるGFlowNetsの学習を提案する。
論文 参考訳(メタデータ) (2023-10-04T10:27:17Z) - Generative Augmented Flow Networks [88.50647244459009]
GFlowNetsに中間報酬を組み込むためにGAFlowNets(Generative Augmented Flow Networks)を提案する。
GAFlowNetsは、エッジベースとステートベース固有の報酬を共同で活用して、探索を改善することができる。
論文 参考訳(メタデータ) (2022-10-07T03:33:56Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。