論文の概要: Proxy-Free GFlowNet
- arxiv url: http://arxiv.org/abs/2505.20110v1
- Date: Mon, 26 May 2025 15:12:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.555374
- Title: Proxy-Free GFlowNet
- Title(参考訳): プロキシフリーGFlowNet
- Authors: Ruishuo Chen, Xun Wang, Rui Hu, Zhuoran Li, Longbo Huang,
- Abstract要約: Generative Flow Networks (GFlowNets) は、構成オブジェクト上の分布をモデル化することによって、多種多様な高逆構造をサンプリングするように設計されている。
既存のほとんどのメソッドはモデルベースのアプローチを採用し、データセットからプロキシモデルを学び、報酬関数を近似する。
textbfTrajectory-Distilled GFlowNet (TD-GFN) を提案する。
- 参考スコア(独自算出の注目度): 39.964801793885485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Flow Networks (GFlowNets) are a promising class of generative models designed to sample diverse, high-reward structures by modeling distributions over compositional objects. In many real-world applications, obtaining the reward function for such objects is expensive, time-consuming, or requires human input, making it necessary to train GFlowNets from historical datasets. Most existing methods adopt a model-based approach, learning a proxy model from the dataset to approximate the reward function. However, this strategy inherently ties the quality of the learned policy to the accuracy of the proxy, introducing additional complexity and uncertainty into the training process. To overcome these limitations, we propose \textbf{Trajectory-Distilled GFlowNet (TD-GFN)}, a \emph{proxy-free} training framework that eliminates the need for out-of-dataset reward queries. Our method is motivated by the key observation that different edges in the associated directed acyclic graph (DAG) contribute unequally to effective policy learning. TD-GFN leverages inverse reinforcement learning to estimate edge-level rewards from the offline dataset, which are then used to ingeniously prune the DAG and guide backward trajectory sampling during training. This approach directs the policy toward high-reward regions while reducing the complexity of model fitting. Empirical results across multiple tasks show that TD-GFN trains both efficiently and reliably, significantly outperforming existing baselines in convergence speed and sample quality.
- Abstract(参考訳): 生成フローネットワーク (Generative Flow Networks, GFlowNets) は、構成オブジェクト上の分布をモデル化することによって、多種多様な高次構造をサンプリングするために設計された、有望な生成モデルのクラスである。
多くの現実世界のアプリケーションでは、そのようなオブジェクトに対する報酬関数を取得するのに費用がかかり、時間がかかり、人間が入力する必要があるため、過去のデータセットからGFlowNetをトレーニングする必要がある。
既存のほとんどのメソッドはモデルベースのアプローチを採用し、データセットからプロキシモデルを学び、報酬関数を近似する。
しかし、この戦略は本質的に、学習したポリシーの質をプロキシの精度に結び付け、トレーニングプロセスにさらなる複雑さと不確実性をもたらす。
これらの制限を克服するために,データセット外報酬クエリの不要なトレーニングフレームワークであるtextbf{Trajectory-Distilled GFlowNet (TD-GFN)}を提案する。
本手法は,有向非巡回グラフ(DAG)の異なるエッジが,効果的な政策学習に不平等に寄与する,というキー観察に動機付けられている。
TD-GFNは、逆強化学習を利用して、オフラインデータセットからエッジレベルの報酬を推定する。
このアプローチは、モデルフィッティングの複雑さを低減しつつ、高逆領域へのポリシーを指示する。
複数のタスクにまたがる実験の結果、TD-GFNの列車は、収束速度とサンプル品質において、既存のベースラインよりも効率的かつ確実に性能を向上することが示された。
関連論文リスト
- Prior-Fitted Networks Scale to Larger Datasets When Treated as Weak Learners [82.72552644267724]
BoostPFNは、大規模なデータセットでトレーニングサンプルと同じサイズで、標準的なPFNよりもパフォーマンスがよい。
高い性能はPFNのトレーニング前サイズの最大50倍まで維持される。
論文 参考訳(メタデータ) (2025-03-03T07:31:40Z) - Subsampling Graphs with GNN Performance Guarantees [34.32848091746629]
グラフデータセットに対する新しいサブサンプリング手法を提案する。
サブサンプルデータ上でのGNNのトレーニングは、完全なデータセットでのトレーニングと比較して、損失のバウンド増加をもたらすことを証明している。
論文 参考訳(メタデータ) (2025-02-23T20:21:16Z) - Efficient Training of Deep Neural Operator Networks via Randomized Sampling [0.0]
ディープオペレータネットワーク(DeepNet)は、様々な科学的・工学的応用における複雑な力学のリアルタイム予測に成功している。
本稿では,DeepONetのトレーニングを取り入れたランダムサンプリング手法を提案する。
実験の結果,訓練中にトランクネットワーク入力にランダム化を組み込むことで,DeepONetの効率性と堅牢性が向上し,複雑な物理系のモデリングにおけるフレームワークの性能向上に期待できる道筋が得られた。
論文 参考訳(メタデータ) (2024-09-20T07:18:31Z) - Looking Backward: Retrospective Backward Synthesis for Goal-Conditioned GFlowNets [27.33222647437964]
Generative Flow Networks (GFlowNets) は、多種多様なハイリワード候補を生成する顕著な能力を示した。
しかし、そのようなモデルの訓練は、極めて少ない報酬のために困難である。
この問題を解決するために,textbfRetrospective textbfBackward textbfSynthesis (textbfRBS) という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-03T09:44:10Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Pre-Training and Fine-Tuning Generative Flow Networks [61.90529626590415]
本稿では,GFlowNetの報酬なし事前学習のための新しいアプローチを提案する。
自己指導型問題としてトレーニングをフレーミングすることで,候補空間の探索を学習する結果条件付きGFlowNetを提案する。
事前学習したOC-GFNモデルにより、下流タスクにおける新しい報酬関数をサンプリングできるポリシーを直接抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-05T09:53:22Z) - Generative Flow Networks for Precise Reward-Oriented Active Learning on
Graphs [34.76241250013461]
本稿では,グラフ能動学習問題をGFlowGNNと呼ばれる生成過程として定式化し,逐次動作によって様々なサンプルを生成する。
提案手法は,様々な最先端手法よりも優れた探索能力と伝達性を有することを示す。
論文 参考訳(メタデータ) (2023-04-24T10:47:08Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。