論文の概要: Projection based Active Gaussian Process Regression for Pareto Front
Modeling
- arxiv url: http://arxiv.org/abs/2001.07072v1
- Date: Mon, 20 Jan 2020 11:52:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 05:04:06.960950
- Title: Projection based Active Gaussian Process Regression for Pareto Front
Modeling
- Title(参考訳): プロジェクションに基づくパレートフロントモデリングのためのアクティブガウスプロセス回帰
- Authors: Zhengqi Gao, Jun Tao, Yangfeng Su, Dian Zhou, and Xuan Zeng
- Abstract要約: プロジェクションに基づく能動ガウス過程回帰法(P-aGPR)を提案する。
提案するP-aGPR法は, 生成PFモデルを提供するだけでなく, 与えられた点がPF上にあるか否かを高速に検証する。
解析結果から,P-aGPR法は最先端の受動的学習法と比較して高いモデリング精度と安定性が得られることが示された。
- 参考スコア(独自算出の注目度): 6.718019242119055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pareto Front (PF) modeling is essential in decision making problems across
all domains such as economics, medicine or engineering. In Operation Research
literature, this task has been addressed based on multi-objective optimization
algorithms. However, without learning models for PF, these methods cannot
examine whether a new provided point locates on PF or not. In this paper, we
reconsider the task from Data Mining perspective. A novel projection based
active Gaussian process regression (P- aGPR) method is proposed for efficient
PF modeling. First, P- aGPR chooses a series of projection spaces with
dimensionalities ranking from low to high. Next, in each projection space, a
Gaussian process regression (GPR) model is trained to represent the constraint
that PF should satisfy in that space. Moreover, in order to improve modeling
efficacy and stability, an active learning framework has been developed by
exploiting the uncertainty information obtained in the GPR models. Different
from all existing methods, our proposed P-aGPR method can not only provide a
generative PF model, but also fast examine whether a provided point locates on
PF or not. The numerical results demonstrate that compared to state-of-the-art
passive learning methods the proposed P-aGPR method can achieve higher modeling
accuracy and stability.
- Abstract(参考訳): パレートフロント(Pareto Front、PF)モデリングは、経済学、医学、工学などあらゆる分野における意思決定に不可欠である。
運用研究文献では、この課題は多目的最適化アルゴリズムに基づいて解決されている。
しかし, PF の学習モデルがなければ, 新たに与えられた点が PF 上に存在するかどうかを調べることはできない。
本稿では,データマイニングの観点からタスクを再考する。
効率的なpfモデリングのために,新しい投影型アクティブガウス過程回帰 (p-agpr) 法を提案する。
第一に、P-aGPRは低から高の次元を持つ一連の射影空間を選択する。
次に、各射影空間において、その空間においてPFが満たすべき制約を表現するためにガウス過程回帰(GPR)モデルを訓練する。
また,モデリングの有効性と安定性を向上させるため,gprモデルで得られた不確実性情報を活用したアクティブラーニングフレームワークを開発した。
既存のP-aGPR法と異なり,提案手法は生成的PFモデルを提供するだけでなく,提供された点がPF上にあるか否かを高速に検証する。
その結果,最新のパッシブ学習法と比較して,提案手法は高いモデリング精度と安定性を実現できることがわかった。
関連論文リスト
- Scalable and non-iterative graphical model estimation [3.187381965457262]
反復的比例フィッティング(IPF)とその変種は、非方向性のグラフィカルモデル推定のデフォルト手法である。
高次元における正定値グラフィカルモデル推定のための新規で高速な非定性的手法を提案する。
論文 参考訳(メタデータ) (2024-08-21T15:46:00Z) - Model-Based Reparameterization Policy Gradient Methods: Theory and
Practical Algorithms [88.74308282658133]
Reization (RP) Policy Gradient Methods (PGM) は、ロボット工学やコンピュータグラフィックスにおける連続的な制御タスクに広く採用されている。
近年の研究では、長期強化学習問題に適用した場合、モデルベースRP PGMはカオス的かつ非滑らかな最適化環境を経験する可能性があることが示されている。
本稿では,長期モデルアンロールによる爆発的分散問題を緩和するスペクトル正規化法を提案する。
論文 参考訳(メタデータ) (2023-10-30T18:43:21Z) - Provably Efficient UCB-type Algorithms For Learning Predictive State
Representations [55.00359893021461]
逐次決定問題は、予測状態表現(PSR)によってモデル化された低ランク構造が認められる場合、統計的に学習可能である
本稿では,推定モデルと実モデル間の全変動距離を上限とする新しいボーナス項を特徴とする,PSRに対する最初のUCB型アプローチを提案する。
PSRに対する既存のアプローチとは対照的に、UCB型アルゴリズムは計算的トラクタビリティ、最優先の準最適ポリシー、モデルの精度が保証される。
論文 参考訳(メタデータ) (2023-07-01T18:35:21Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - A General Framework for Sample-Efficient Function Approximation in
Reinforcement Learning [132.45959478064736]
モデルベースとモデルフリー強化学習を統合した汎用フレームワークを提案する。
最適化に基づく探索のための分解可能な構造特性を持つ新しい推定関数を提案する。
本フレームワークでは,OPERA (Optimization-based Exploration with Approximation) という新しいサンプル効率アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:16Z) - Simplifying Model-based RL: Learning Representations, Latent-space
Models, and Policies with One Objective [142.36200080384145]
自己整合性を維持しつつ高いリターンを達成するために,潜在空間モデルとポリシーを協調的に最適化する単一目的を提案する。
得られたアルゴリズムは, モデルベースおよびモデルフリーRL手法のサンプル効率に適合するか, 改善することを示した。
論文 参考訳(メタデータ) (2022-09-18T03:51:58Z) - RL-PGO: Reinforcement Learning-based Planar Pose-Graph Optimization [1.4884785898657995]
本稿では,最新のDeep Reinforcement Learning (DRL) ベースの環境と2次元ポーズグラフ最適化のためのエージェントを提案する。
本研究では、ポーズグラフ最適化問題を部分的に観測可能な決定プロセスとしてモデル化し、実世界および合成データセットの性能を評価することを実証する。
論文 参考訳(メタデータ) (2022-02-26T20:10:14Z) - Bayesian Sequential Optimal Experimental Design for Nonlinear Models
Using Policy Gradient Reinforcement Learning [0.0]
この逐次最適設計(sOED)問題を有限水平部分観測可能なマルコフ決定過程(POMDP)として定式化する。
連続確率変数、一般のガウス的非ガウス的後部モデル、高価な非線形フォワードモデルに対応するために構築されている。
我々は、強化学習から政策勾配(PG)法を用いてsOEDポリシーを数値的に解き、sOEDのPG式を導出し、証明する。
PG-sOED法全体を線形ガウスベンチマークで検証し, 汚染源逆転問題により, バッチおよびグレディ設計よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:47:31Z) - Weighted Aggregating Stochastic Gradient Descent for Parallel Deep
Learning [8.366415386275557]
解決策には、ニューラルネットワークモデルにおける最適化のための目的関数の修正が含まれる。
本稿では,地方労働者のパフォーマンスに基づく分散型重み付けアグリゲーション方式を提案する。
提案手法を検証するため,提案手法をいくつかの一般的なアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-04-07T23:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。