論文の概要: Optimizing adaptive sampling via Policy Ranking
- arxiv url: http://arxiv.org/abs/2410.15259v1
- Date: Sun, 20 Oct 2024 02:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:17:07.254179
- Title: Optimizing adaptive sampling via Policy Ranking
- Title(参考訳): ポリシーランキングによる適応サンプリングの最適化
- Authors: Hassan Nadeem, Diwakar Shukla,
- Abstract要約: 本稿では,計量式ランキングによる最適サンプリングポリシーの同定のためのフレームワークを提案する。
提案手法は,コンフォーメーション空間を効果的に探索する能力に基づいて,政策アンサンブルを体系的に評価し,政策のランク付けを行う。
本稿では,このランキングフレームワークを高速に近似する2つのサンプリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.23020018305241333
- License:
- Abstract: Efficient sampling in biomolecular simulations is critical for accurately capturing the complex dynamical behaviors of biological systems. Adaptive sampling techniques aim to improve efficiency by focusing computational resources on the most relevant regions of phase space. In this work, we present a framework for identifying the optimal sampling policy through metric driven ranking. Our approach systematically evaluates the policy ensemble and ranks the policies based on their ability to explore the conformational space effectively. Through a series of biomolecular simulation case studies, we demonstrate that choice of a different adaptive sampling policy at each round significantly outperforms single policy sampling, leading to faster convergence and improved sampling performance. This approach takes an ensemble of adaptive sampling policies and identifies the optimal policy for the next round based on current data. Beyond presenting this ensemble view of adaptive sampling, we also propose two sampling algorithms that approximate this ranking framework on the fly. The modularity of this framework allows incorporation of any adaptive sampling policy making it versatile and suitable as a comprehensive adaptive sampling scheme.
- Abstract(参考訳): 生体分子シミュレーションの効率的なサンプリングは、生体系の複雑な力学挙動を正確に把握するために重要である。
適応サンプリング技術は、位相空間の最も関連性の高い領域に計算資源を集中させることにより効率を向上させることを目的としている。
本研究では,計量式ランキングによる最適サンプリングポリシーの同定のためのフレームワークを提案する。
提案手法は,コンフォーメーション空間を効果的に探索する能力に基づいて,政策アンサンブルを体系的に評価し,政策のランク付けを行う。
一連の生体分子シミュレーションケーススタディを通じて、各ラウンドにおける異なる適応サンプリングポリシーの選択は、単一ポリシーサンプリングを著しく上回り、より高速な収束とサンプリング性能の向上をもたらすことを実証した。
このアプローチは、適応的なサンプリングポリシーの集合を取り、現在のデータに基づいて次のラウンドの最適ポリシーを特定する。
適応サンプリングのこのアンサンブルビューに加えて、このランキングフレームワークをリアルタイムで近似する2つのサンプリングアルゴリズムも提案する。
このフレームワークのモジュラリティにより、任意の適応サンプリングポリシーが組み込まれ、汎用的で包括的な適応サンプリングスキームとして適している。
関連論文リスト
- Differentiating Policies for Non-Myopic Bayesian Optimization [5.793371273485735]
本稿では,ロールアウト関数とその勾配を効率的に推定し,サンプリングポリシを実現する方法を示す。
本稿では,ロールアウト関数とその勾配を効率的に推定し,サンプリングポリシを実現する方法について述べる。
論文 参考訳(メタデータ) (2024-08-14T21:00:58Z) - MB-RACS: Measurement-Bounds-based Rate-Adaptive Image Compressed Sensing Network [65.1004435124796]
本稿では,MB-RACS(Message-Bounds-based Rate-Adaptive Image Compressed Sensing Network)フレームワークを提案する。
実験により,提案手法が現在の先行手法を超越していることが実証された。
論文 参考訳(メタデータ) (2024-01-19T04:40:20Z) - Acceleration in Policy Optimization [50.323182853069184]
我々は、楽観的かつ適応的な更新を通じて、政策改善のステップにフォレストを組み込むことにより、強化学習(RL)における政策最適化手法を加速するための統一パラダイムに向けて研究する。
我々は、楽観主義を、政策の将来行動の予測モデルとして定義し、適応性は、過度な予測や変化に対する遅延反応からエラーを軽減するために、即時かつ予測的な修正措置をとるものである。
我々は,メタグラディエント学習による適応型楽観的ポリシー勾配アルゴリズムを設計し,実証的なタスクにおいて,加速度に関連するいくつかの設計選択を実証的に強調する。
論文 参考訳(メタデータ) (2023-06-18T15:50:57Z) - Local Optimization Achieves Global Optimality in Multi-Agent
Reinforcement Learning [139.53668999720605]
本稿では,各エージェントのローカルポリシーをバニラPPOと同様に更新するマルチエージェントPPOアルゴリズムを提案する。
マルコフゲームにおける標準正則条件と問題依存量により、我々のアルゴリズムはサブリニアレートで大域的最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2023-05-08T16:20:03Z) - Efficient Learning for Selecting Top-m Context-Dependent Designs [0.7646713951724012]
文脈に依存した意思決定のためのシミュレーション最適化問題を考察する。
本研究では,各デザインの性能を各コンテキスト下で効率的に学習するためのシーケンシャルサンプリングポリシーを開発する。
数値実験により,提案手法はトップmの文脈依存設計の選択効率を向上することを示した。
論文 参考訳(メタデータ) (2023-05-06T16:11:49Z) - Adaptive Sampling for Probabilistic Forecasting under Distribution Shift [9.769524837609174]
本稿では,予測に関係のある時系列履歴の一部を選択する適応型サンプリング戦略を提案する。
本研究では,本手法が分散シフトに適応し,ベースモデルの予測誤差を5つのデータセットのうち3つで著しく低減することを示す。
論文 参考訳(メタデータ) (2023-02-23T09:16:54Z) - Fast Model-based Policy Search for Universal Policy Networks [45.44896435487879]
エージェントの振る舞いを新しい環境に適応させることは、物理学に基づく強化学習の主要な焦点の1つとなっている。
本稿では,以前に見つからなかった環境に移行した場合のポリシーの性能を推定する,ガウス過程に基づく事前学習手法を提案する。
本研究は,ベイズ最適化に基づく政策探索プロセスと先行して統合し,普遍的な政策ネットワークから最も適切な政策を識別する効率を向上させる。
論文 参考訳(メタデータ) (2022-02-11T18:08:02Z) - Generalized Proximal Policy Optimization with Sample Reuse [8.325359814939517]
我々は、オン・ポリシー・アルゴリズムの理論的に支持された安定性の利点とオフ・ポリシー・アルゴリズムのサンプル効率を組み合わせる。
我々は、政策改善の保証を開発し、その境界を政策最適化に使用するクリッピング機構に接続する。
これは、我々がGeneralized Proximal Policy Optimization with Sample Reuseと呼ぶ、一般的なアルゴリズムの非政治バージョンを動機付けます。
論文 参考訳(メタデータ) (2021-10-29T20:22:31Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - ParticleAugment: Sampling-Based Data Augmentation [80.44268663372233]
モデルトレーニング中に最適な拡張ポリシーとスケジュールを求めるために,粒子フィルタリングの定式化を提案する。
CIFAR-10, CIFAR-100, ImageNetデータセットにおいて, 自動拡張のための定式化が有望な結果に達することを示す。
論文 参考訳(メタデータ) (2021-06-16T10:56:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。