論文の概要: Boosted GFlowNets: Improving Exploration via Sequential Learning
- arxiv url: http://arxiv.org/abs/2511.09677v1
- Date: Fri, 14 Nov 2025 01:03:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.408759
- Title: Boosted GFlowNets: Improving Exploration via Sequential Learning
- Title(参考訳): Boosted GFlowNets: シーケンシャルラーニングによる探索の改善
- Authors: Pedro Dall'Antonia, Tiago da Silva, Daniel Augusto de Souza, César Lincoln C. Mattos, Diego Mesquita,
- Abstract要約: Boosted GFlowNetsは、GFlowNetsのアンサンブルを逐次訓練する手法で、それぞれが、以前のモデルで既に捕獲された質量を補償する残留報酬を最適化する。
本稿では, マルチモーダル合成ベンチマークとペプチド設計タスクにおいて, GFlowNetsの探索とサンプルの多様性を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 13.119757506183392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFlowNets) are powerful samplers for compositional objects that, by design, sample proportionally to a given non-negative reward. Nonetheless, in practice, they often struggle to explore the reward landscape evenly: trajectories toward easy-to-reach regions dominate training, while hard-to-reach modes receive vanishing or uninformative gradients, leading to poor coverage of high-reward areas. We address this imbalance with Boosted GFlowNets, a method that sequentially trains an ensemble of GFlowNets, each optimizing a residual reward that compensates for the mass already captured by previous models. This residual principle reactivates learning signals in underexplored regions and, under mild assumptions, ensures a monotone non-degradation property: adding boosters cannot worsen the learned distribution and typically improves it. Empirically, Boosted GFlowNets achieve substantially better exploration and sample diversity on multimodal synthetic benchmarks and peptide design tasks, while preserving the stability and simplicity of standard trajectory-balance training.
- Abstract(参考訳): 生成フローネットワーク(GFlowNets)は、設計上、与えられた非負の報酬に比例する、構成オブジェクトのための強力なサンプルである。
それにもかかわらず、実際には、彼らは報酬の風景を均等に探究するのに苦労することが多く、すなわち、易解な地域への軌道が訓練を支配しているのに対して、難解なモードは消滅または非形式的な勾配を受けており、高水準の地域をカバーしていない。
我々は、GFlowNetsのアンサンブルを逐次訓練するBoosted GFlowNetsを用いて、この不均衡に対処する。
この残留原理は、探索されていない地域での学習信号を再活性化し、穏やかな仮定の下では、単調な非劣化特性を保証する。
実証的に、Boosted GFlowNetsは、標準軌道バランストレーニングの安定性と単純さを維持しながら、マルチモーダルな合成ベンチマークとペプチド設計タスクにおいて、かなり優れた探索とサンプル多様性を実現している。
関連論文リスト
- MG2FlowNet: Accelerating High-Reward Sample Generation via Enhanced MCTS and Greediness Control [19.49552596070782]
Generative Flow Networks (GFlowNets) は、与えられた報酬関数に比例した分布からサンプルを学習することで、多種多様な高次構造化オブジェクトを生成する強力なツールとして登場した。
本研究では,モンテカルロ木探索(MCTS)をGFlowNetsサンプリングプロセスに統合し,探索とエクスプロイトを適応的にバランスさせる。
本手法は,高次領域の発見速度を早めるだけでなく,生成分布の多様性を保ちながら,連続的に高次領域を生成できる。
論文 参考訳(メタデータ) (2025-10-01T12:09:04Z) - Efficient Diversity-Preserving Diffusion Alignment via Gradient-Informed GFlowNets [65.42834731617226]
そこで我々は,Nabla-GFlowNetと呼ばれる拡散モデルファインタニングのための強化学習手法を提案する。
提案手法は,大規模テキスト条件による画像拡散モデルである安定拡散の高速かつ多様かつ事前保存的な微調整を実現する。
論文 参考訳(メタデータ) (2024-12-10T18:59:58Z) - Looking Backward: Retrospective Backward Synthesis for Goal-Conditioned GFlowNets [27.33222647437964]
Generative Flow Networks (GFlowNets) は、多種多様なハイリワード候補を生成する顕著な能力を示した。
しかし、そのようなモデルの訓練は、極めて少ない報酬のために困難である。
この問題を解決するために,textbfRetrospective textbfBackward textbfSynthesis (textbfRBS) という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-03T09:44:10Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。