論文の概要: Improved Exploration in GFlownets via Enhanced Epistemic Neural Networks
- arxiv url: http://arxiv.org/abs/2506.16313v1
- Date: Thu, 19 Jun 2025 13:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.091319
- Title: Improved Exploration in GFlownets via Enhanced Epistemic Neural Networks
- Title(参考訳): 拡張てんかん性ニューラルネットによるGFlownetの探索改善
- Authors: Sajan Muhammad, Salem Lahlou,
- Abstract要約: トレーニングのための適切な軌道を効果的に特定することは、GFlowNetsでは未解決の問題である。
提案アルゴリズムは,GFlownetのベースライン法と比較し,グリッド環境での評価を行う。
- 参考スコア(独自算出の注目度): 0.8385863811195056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficiently identifying the right trajectories for training remains an open problem in GFlowNets. To address this, it is essential to prioritize exploration in regions of the state space where the reward distribution has not been sufficiently learned. This calls for uncertainty-driven exploration, in other words, the agent should be aware of what it does not know. This attribute can be measured by joint predictions, which are particularly important for combinatorial and sequential decision problems. In this research, we integrate epistemic neural networks (ENN) with the conventional architecture of GFlowNets to enable more efficient joint predictions and better uncertainty quantification, thereby improving exploration and the identification of optimal trajectories. Our proposed algorithm, ENN-GFN-Enhanced, is compared to the baseline method in GFlownets and evaluated in grid environments and structured sequence generation in various settings, demonstrating both its efficacy and efficiency.
- Abstract(参考訳): トレーニングのための適切な軌道を効果的に特定することは、GFlowNetsでは未解決の問題である。
これを解決するためには、報酬分布が十分に学習されていない状態空間の領域での探索を優先することが不可欠である。
これは不確実性による探索を呼び起こし、言い換えれば、エージェントは自分が知らないことを認識すべきである。
この属性は、組合せ的および逐次的な決定問題において特に重要である共同予測によって測定することができる。
本研究では,GFlowNetsの従来のアーキテクチャとENNを統合し,より効率的な関節予測と不確実性定量化を実現し,探索と最適軌道の同定を改善した。
提案アルゴリズムは, GFlownetsのベースライン法と比較し, グリッド環境および様々な環境における構造化シーケンス生成の評価を行い, その有効性と効率性を実証した。
関連論文リスト
- Efficient Fault Detection in WSN Based on PCA-Optimized Deep Neural Network Slicing Trained with GOA [0.6827423171182154]
従来の障害検出手法は、効率的なパフォーマンスのためにディープニューラルネットワーク(DNN)の最適化に苦労することが多い。
本研究では,これらの制約に対処するためにGrasshopper Optimization Algorithm(GOA)によって最適化されたDNNと主成分分析(PCA)を組み合わせた新しいハイブリッド手法を提案する。
従来の手法よりも優れた精度とリコールで,99.72%の分類精度を実現している。
論文 参考訳(メタデータ) (2025-05-11T15:51:56Z) - Influence Maximization via Graph Neural Bandits [54.45552721334886]
IM問題を多ラウンド拡散キャンペーンに設定し,影響を受けやすいユーザ数を最大化することを目的とした。
IM-GNB(Influence Maximization with Graph Neural Bandits)を提案する。
論文 参考訳(メタデータ) (2024-06-18T17:54:33Z) - Ant Colony Sampling with GFlowNets for Combinatorial Optimization [68.84985459701007]
Generative Flow Ant Colony Sampler (GFACS)は、階層的に償却推論と並列探索を組み合わせた新しいメタヒューリスティック手法である。
提案手法はまず,生成フローネットワーク(GFlowNets)を利用して,解空間上のエンフルティモーダル事前分布を補正する。
この前者は、Ant Colony Optimization (ACO) の精神で並列探索によって更新され、後部分布がほぼ最適解を生成する。
論文 参考訳(メタデータ) (2024-03-11T16:26:06Z) - Attentional Graph Neural Network Is All You Need for Robust Massive Network Localization [26.85290529046327]
我々は,大規模ネットワークローカライゼーションという重要な非線形回帰問題に対処するための注意機構を備えたグラフニューラルネットワーク(GNN)を設計する。
グラフ畳み込みネットワーク(GCN)に基づく従来のネットワークローカライゼーション手法について概観する。
拡張として,GCN方式の感度閾値決定問題を解決するために,特別に設計された注意型GNN (AGNN) モデルを提案する。
論文 参考訳(メタデータ) (2023-11-28T15:05:13Z) - DAG Matters! GFlowNets Enhanced Explainer For Graph Neural Networks [30.19635147123557]
我々はGFlowNetsベースのGNN Explainer(GFlowExplainer)という生成構造を提案する。
我々のGFlowExplainerは、サブグラフの確率がその報酬に比例するサブグラフの分布を生成するポリシーを学習することを目的としています。
我々は合成データと実データの両方について広範な実験を行い、質的および定量的な結果はGFlowExplainerの優位性を示している。
論文 参考訳(メタデータ) (2023-03-04T16:15:25Z) - Efficient Bayes Inference in Neural Networks through Adaptive Importance
Sampling [19.518237361775533]
BNNでは、トレーニング段階で、未知の重みとバイアスパラメータの完全な後部分布が生成される。
この機能は、数え切れないほどの機械学習アプリケーションに役立ちます。
医療医療や自動運転など、意思決定に重大な影響を及ぼす分野において特に魅力的である。
論文 参考訳(メタデータ) (2022-10-03T14:59:23Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Robust Graph Neural Networks via Probabilistic Lipschitz Constraints [7.359962178534361]
グラフニューラルネットワーク(GNN)は、最近、さまざまなネットワークベースのタスクでうまく機能することが実証されている。
GNNは入力のシフトや摂動の影響を受けやすく、ノード属性とグラフ構造の両方を含むことができる。
論文 参考訳(メタデータ) (2021-12-14T17:33:32Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。