論文の概要: Avoid What You Know: Divergent Trajectory Balance for GFlowNets
- arxiv url: http://arxiv.org/abs/2602.17827v1
- Date: Thu, 19 Feb 2026 20:47:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.13978
- Title: Avoid What You Know: Divergent Trajectory Balance for GFlowNets
- Title(参考訳): あなたが知っていることを避ける:GFlowNetの分岐軌道バランス
- Authors: Pedro Dall'Antonia, Tiago da Silva, Daniel Csillag, Salem Lahlou, Diego Mesquita,
- Abstract要約: 本稿では,標準GFlowNetが探索する領域における高次状態の探索を,GFlowNetが明示的に訓練した探索手法を提案する。
本研究では,多種多様な高次状態の目標分布と発見率に対する近似精度の観点から,先行作業においてACEは著しく向上することを示す。
- 参考スコア(独自算出の注目度): 14.524997986396713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFlowNets) are a flexible family of amortized samplers trained to generate discrete and compositional objects with probability proportional to a reward function. However, learning efficiency is constrained by the model's ability to rapidly explore diverse high-probability regions during training. To mitigate this issue, recent works have focused on incentivizing the exploration of unvisited and valuable states via curiosity-driven search and self-supervised random network distillation, which tend to waste samples on already well-approximated regions of the state space. In this context, we propose Adaptive Complementary Exploration (ACE), a principled algorithm for the effective exploration of novel and high-probability regions when learning GFlowNets. To achieve this, ACE introduces an exploration GFlowNet explicitly trained to search for high-reward states in regions underexplored by the canonical GFlowNet, which learns to sample from the target distribution. Through extensive experiments, we show that ACE significantly improves upon prior work in terms of approximation accuracy to the target distribution and discovery rate of diverse high-reward states.
- Abstract(参考訳): Generative Flow Networks (GFlowNets) は、報酬関数に比例した確率で離散的および構成的オブジェクトを生成するために訓練されたアモルト化サンプルの柔軟なファミリーである。
しかし、学習効率は、訓練中に様々な高確率領域を迅速に探索するモデルの能力によって制約される。
この問題を軽減するため、近年の研究では、好奇心駆動型探索と自己監督型ランダムネットワーク蒸留により、未確認かつ貴重な状態の探索を促進することに重点を置いている。
本稿では,GFlowNetsの学習において,新しい領域と高確率領域を効果的に探索するためのアルゴリズムである適応補完探索(ACE)を提案する。
これを実現するため、ACEは、ターゲット分布からサンプルを学習する標準GFlowNetによって探索された領域における高次状態の探索を明示的に訓練した探索GFlowNetを導入した。
広範囲な実験により、ACEは、様々な高次状態の目標分布と発見率に対する近似精度において、事前の作業において著しく改善されていることを示す。
関連論文リスト
- MG2FlowNet: Accelerating High-Reward Sample Generation via Enhanced MCTS and Greediness Control [19.49552596070782]
Generative Flow Networks (GFlowNets) は、与えられた報酬関数に比例した分布からサンプルを学習することで、多種多様な高次構造化オブジェクトを生成する強力なツールとして登場した。
本研究では,モンテカルロ木探索(MCTS)をGFlowNetsサンプリングプロセスに統合し,探索とエクスプロイトを適応的にバランスさせる。
本手法は,高次領域の発見速度を早めるだけでなく,生成分布の多様性を保ちながら,連続的に高次領域を生成できる。
論文 参考訳(メタデータ) (2025-10-01T12:09:04Z) - Improved Exploration in GFlownets via Enhanced Epistemic Neural Networks [3.754610894453276]
トレーニングのための適切な軌道を効果的に特定することは、GFlowNetsでは未解決の問題である。
提案アルゴリズムは,GFlownetのベースライン法と比較し,グリッド環境での評価を行う。
論文 参考訳(メタデータ) (2025-06-19T13:39:30Z) - Loss-Guided Auxiliary Agents for Overcoming Mode Collapse in GFlowNets [22.653875450786444]
Loss-Guided GFlowNets(LGGFN)は、GFlowNetのトレーニング損失によって、補助的なGFlowNetの探索が直接的にテキスト駆動される新しいアプローチである。
この目的の探査は、多種多様な高解像度サンプルの発見を著しく加速させる。
論文 参考訳(メタデータ) (2025-05-21T08:27:10Z) - Adaptive teachers for amortized samplers [76.88721198565861]
そこで,本研究では,初等無罪化標本作成者(学生)の指導を指導する適応的学習分布(教師)を提案する。
本研究では, この手法の有効性を, 探索課題の提示を目的とした合成環境において検証する。
論文 参考訳(メタデータ) (2024-10-02T11:33:13Z) - On Generalization for Generative Flow Networks [54.20924253330039]
生成フローネットワーク(GFlowNets)は、非正規化確率分布からのサンプリングの課題に対処するために設計された革新的な学習パラダイムとして登場した。
本稿では,GFlowNetsの文脈で一般化を形式化し,一般化と安定性を結びつけるとともに,これらのモデルの能力を評価する実験を行い,報酬関数の未知の部分を明らかにする。
論文 参考訳(メタデータ) (2024-07-03T13:42:21Z) - Pre-Training and Fine-Tuning Generative Flow Networks [61.90529626590415]
本稿では,GFlowNetの報酬なし事前学習のための新しいアプローチを提案する。
自己指導型問題としてトレーニングをフレーミングすることで,候補空間の探索を学習する結果条件付きGFlowNetを提案する。
事前学習したOC-GFNモデルにより、下流タスクにおける新しい報酬関数をサンプリングできるポリシーを直接抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-05T09:53:22Z) - Local Search GFlowNets [85.0053493167887]
Generative Flow Networks (GFlowNets) は、報酬に比例した離散オブジェクト上の分布を学習するアモータイズされたサンプリング手法である。
GFlowNetsは、多様なサンプルを生成する素晴らしい能力を示していますが、広いサンプル空間での過剰な探索のために、常に高い報酬を持つサンプルを生成するのに苦労することがあります。
本稿では,局所探索によるGFlowNetsの学習を提案する。
論文 参考訳(メタデータ) (2023-10-04T10:27:17Z) - Generative Augmented Flow Networks [88.50647244459009]
GFlowNetsに中間報酬を組み込むためにGAFlowNets(Generative Augmented Flow Networks)を提案する。
GAFlowNetsは、エッジベースとステートベース固有の報酬を共同で活用して、探索を改善することができる。
論文 参考訳(メタデータ) (2022-10-07T03:33:56Z) - Learning GFlowNets from partial episodes for improved convergence and
stability [56.99229746004125]
生成フローネットワーク(GFlowNets)は、非正規化対象密度の下で離散オブジェクトのシーケンシャルサンプリングを訓練するアルゴリズムである。
GFlowNetsの既存のトレーニング目的は、状態または遷移に局所的であるか、あるいはサンプリング軌道全体にわたって報酬信号を伝達する。
強化学習におけるTD($lambda$)アルゴリズムにインスパイアされたサブトラジェクティブバランス(subtrajectory balance, SubTB($lambda$)を導入する。
論文 参考訳(メタデータ) (2022-09-26T15:44:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。