論文の概要: DGFN: Double Generative Flow Networks
- arxiv url: http://arxiv.org/abs/2310.19685v2
- Date: Tue, 31 Oct 2023 19:47:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 10:50:24.959266
- Title: DGFN: Double Generative Flow Networks
- Title(参考訳): DGFN: 二重生成フローネットワーク
- Authors: Elaine Lau, Nikhil Vemgal, Doina Precup, Emmanuel Bengio
- Abstract要約: Generative Flow Networks (GFlowNets/GFNs) は,多種多様な候補を生成する能力に対して,最近導入された手法である。
本稿では、DGFN(Double GFlowNets)を紹介する。
本稿では,これらのトラジェクトリを用いてメインネットワークを更新しながら,トラジェクトリをサンプリングするターゲットネットワークを提案する。
実験により、DGFNはスパース報酬領域と高次元状態空間の探索を効果的に促進することが確認された。
- 参考スコア(独自算出の注目度): 40.54000153317369
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning is emerging as an effective tool in drug discovery, with
potential applications in both predictive and generative models. Generative
Flow Networks (GFlowNets/GFNs) are a recently introduced method recognized for
the ability to generate diverse candidates, in particular in small molecule
generation tasks. In this work, we introduce double GFlowNets (DGFNs). Drawing
inspiration from reinforcement learning and Double Deep Q-Learning, we
introduce a target network used to sample trajectories, while updating the main
network with these sampled trajectories. Empirical results confirm that DGFNs
effectively enhance exploration in sparse reward domains and high-dimensional
state spaces, both challenging aspects of de-novo design in drug discovery.
- Abstract(参考訳): 深層学習は薬物発見の有効なツールとして現れており、予測モデルと生成モデルの両方に応用される可能性がある。
Generative Flow Networks (GFlowNets/GFNs) は、多種多様な候補を生成する能力、特に小さな分子生成タスクで認識される手法である。
本稿では、DGFN(Double GFlowNets)を紹介する。
強化学習とDouble Deep Q-Learningからインスピレーションを得て,これらのトラジェクトリをサンプリングするターゲットネットワークを導入し,メインネットワークをこれらのトラジェクトリで更新する。
実験の結果、dgfnsはスパース報酬ドメインと高次元状態空間の探索を効果的に促進することが明らかとなった。
関連論文リスト
- Pessimistic Backward Policy for GFlowNets [40.00805723326561]
本稿では,与えられた報酬関数に比例してオブジェクトをサンプリングする生成フローネットワーク(GFlowNets)について検討する。
本研究では,GFlowNetが低軌道の訓練により,高逆対象を過小評価する傾向にあることを示す。
本稿では,GFlowNetsに対する悲観的なバックワードポリシーを提案し,観測されたフローを最大化し,オブジェクトに対する真の報酬と密接に一致させる。
論文 参考訳(メタデータ) (2024-05-25T02:30:46Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Evolution Guided Generative Flow Networks [11.609895436955242]
Generative Flow Networks(GFlowNets)は、報酬に比例した合成オブジェクトのサンプリングを学ぶ。
GFlowNetsの大きな課題のひとつは、長期間の地平線とまばらな報酬を扱う際に、それらを効果的にトレーニングすることだ。
進化的アルゴリズム(EA)を用いたGFlowNetsトレーニングの簡易かつ強力な拡張であるEGFN(Evolution Guided Generative Flow Network)を提案する。
論文 参考訳(メタデータ) (2024-02-03T15:28:53Z) - Pre-Training and Fine-Tuning Generative Flow Networks [61.90529626590415]
本稿では,GFlowNetの報酬なし事前学習のための新しいアプローチを提案する。
自己指導型問題としてトレーニングをフレーミングすることで,候補空間の探索を学習する結果条件付きGFlowNetを提案する。
事前学習したOC-GFNモデルにより、下流タスクにおける新しい報酬関数をサンプリングできるポリシーを直接抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-05T09:53:22Z) - Generative Flow Networks for Precise Reward-Oriented Active Learning on
Graphs [34.76241250013461]
本稿では,グラフ能動学習問題をGFlowGNNと呼ばれる生成過程として定式化し,逐次動作によって様々なサンプルを生成する。
提案手法は,様々な最先端手法よりも優れた探索能力と伝達性を有することを示す。
論文 参考訳(メタデータ) (2023-04-24T10:47:08Z) - Generative Augmented Flow Networks [88.50647244459009]
GFlowNetsに中間報酬を組み込むためにGAFlowNets(Generative Augmented Flow Networks)を提案する。
GAFlowNetsは、エッジベースとステートベース固有の報酬を共同で活用して、探索を改善することができる。
論文 参考訳(メタデータ) (2022-10-07T03:33:56Z) - GFlowNets and variational inference [64.22223306224903]
本稿では,階層的変動推論(VI)と生成フローネットワーク(GFlowNets)という,確率論的アルゴリズムの2つのファミリー間のブリッジを構築する。
また, ある場合において, VIアルゴリズムは, 学習目標の期待勾配の等しさという意味で, GFlowNetsの特別な場合と等価であることを示した。
論文 参考訳(メタデータ) (2022-10-02T17:41:01Z) - Generate Novel Molecules With Target Properties Using Conditional
Generative Models [0.0]
トレーニングセット内の分子と同様の小さな分子を生成する新しいニューラルネットワークを提案する。
我々のネットワークは,分子量,ログP,薬物類似度の定量的評価を指標として,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-15T18:59:26Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。