論文の概要: SCOP: Schrodinger Control Optimal Planning for Goal-Based Wealth
Management
- arxiv url: http://arxiv.org/abs/2309.05926v1
- Date: Tue, 12 Sep 2023 02:58:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:30:00.465182
- Title: SCOP: Schrodinger Control Optimal Planning for Goal-Based Wealth
Management
- Title(参考訳): SCOP: ゴールベースウェルスマネジメントのためのシュロディンガー制御最適計画
- Authors: Igor Halperin
- Abstract要約: 我々は、退職などの財政目標に向けて、働く個人のような金融プランナーの貢献を最適化する問題を考察する。
プランナーの目的は、目標に向かって設定された投資ポートフォリオへの定期的な導入の最適かつ実現可能なスケジュールを見つけることである。
ポートフォリオのリターンはランダムであるため、問題の実用的なバージョンは、ゴールが与えられた信頼度レベルで満たされるように最適なコントリビューションスキームを見つけることにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of optimization of contributions of a financial
planner such as a working individual towards a financial goal such as
retirement. The objective of the planner is to find an optimal and feasible
schedule of periodic installments to an investment portfolio set up towards the
goal. Because portfolio returns are random, the practical version of the
problem amounts to finding an optimal contribution scheme such that the goal is
satisfied at a given confidence level. This paper suggests a semi-analytical
approach to a continuous-time version of this problem based on a controlled
backward Kolmogorov equation (BKE) which describes the tail probability of the
terminal wealth given a contribution policy. The controlled BKE is solved
semi-analytically by reducing it to a controlled Schrodinger equation and
solving the latter using an algebraic method. Numerically, our approach amounts
to finding semi-analytical solutions simultaneously for all values of control
parameters on a small grid, and then using the standard two-dimensional spline
interpolation to simultaneously represent all satisficing solutions of the
original plan optimization problem. Rather than being a point in the space of
control variables, satisficing solutions form continuous contour lines
(efficient frontiers) in this space.
- Abstract(参考訳): 我々は、退職等の財務目標に向けて働く個人等の財務計画立案者の貢献の最適化の問題を考える。
プランナーの目的は、目標に向けて設定された投資ポートフォリオに定期的な設置の最適かつ実現可能なスケジュールを見つけることである。
ポートフォリオリターンはランダムであるため、問題の実用的なバージョンは、与えられた信頼レベルで目標が満たされる最適な貢献スキームを見つけるのに等しい。
本稿では,この問題の連続時間バージョンに対する半解析的アプローチとして,貢献政策が与えられた端末富のテール確率を記述した制御後向きコルモゴロフ方程式(bke)を提案する。
制御されたBKEは、制御されたシュロディンガー方程式に還元し、代数的手法で後者を解くことで半解析的に解かれる。
数値計算では, 制御パラメータの全ての値に対して, 同時に半解析解を求めるとともに, 標準2次元スプライン補間法を用いて, 元の計画最適化問題の全ての満足解を同時に表現する。
制御変数の空間の点である代わりに、満足できる解はこの空間における連続的な輪郭線(効率的なフロンティア)を形成する。
関連論文リスト
- Fully Stochastic Trust-Region Sequential Quadratic Programming for
Equality-Constrained Optimization Problems [62.83783246648714]
目的と決定論的等式制約による非線形最適化問題を解くために,逐次2次プログラミングアルゴリズム(TR-StoSQP)を提案する。
アルゴリズムは信頼領域半径を適応的に選択し、既存の直線探索StoSQP方式と比較して不確定なヘッセン行列を利用することができる。
論文 参考訳(メタデータ) (2022-11-29T05:52:17Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - First-order Policy Optimization for Robust Markov Decision Process [40.2022466644885]
我々はロバストマルコフ決定過程(MDP)の解法を考える。
MDPは、不確実な遷移カーネルを持つ割引状態、有限状態、有限作用空間 MDP の集合を含む。
$(mathbfs,mathbfa)$-矩形不確かさ集合に対して、ロバストな目的に関するいくつかの構造的な観察を確立する。
論文 参考訳(メタデータ) (2022-09-21T18:10:28Z) - A Unifying Framework for Online Optimization with Long-Term Constraints [62.35194099438855]
我々は,意思決定者が長期的制約の対象となる一連の意思決定をしなければならないオンライン学習問題について検討する。
目標は、全報酬を最大化し、同時に、$T$ラウンド全体で小さな累積違反を達成することである。
本稿では,この一般クラス問題に対して,未知のモデルに基づいて報酬と制約が選択された場合と,各ラウンドで敵が選択した場合の双方において,最良世界型アルゴリズムを提示する。
論文 参考訳(メタデータ) (2022-09-15T16:59:19Z) - Gradient-Free Methods for Deterministic and Stochastic Nonsmooth
Nonconvex Optimization [94.19177623349947]
非滑らかな非最適化問題は、機械学習とビジネス製造に現れる。
2つのコア課題は、有限収束を保証する効率的な方法の開発を妨げる。
GFMとSGFMの2相版も提案され, 改良された大規模評価結果が得られた。
論文 参考訳(メタデータ) (2022-09-12T06:53:24Z) - A Lyapunov-Based Methodology for Constrained Optimization with Bandit
Feedback [22.17503016665027]
各アクションが未知の関節分布からランダムな報酬、コスト、ペナルティを返す問題を考える。
我々は、$tt LyOn$という新しい低複雑さアルゴリズムを提案し、$O(sqrtBlog B)$ regretと$O(log B/B)$ constraint-violationを達成することを証明した。
計算コストの低い$tt LyOn$は、Lyapunovをベースとしたアルゴリズム設計手法が制約付き帯域最適化問題の解決に有効であることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T16:12:07Z) - Joint Optimization of Multi-Objective Reinforcement Learning with Policy
Gradient Based Algorithm [34.77250498401055]
複数の長期目標の非線形凹関数を最大化する問題を定式化する。
この問題に対してポリシー段階に基づくモデルフリーアルゴリズムを提案する。
提案アルゴリズムは,グローバルオプティマの$epsilon$以内に収束することが示されている。
論文 参考訳(メタデータ) (2021-05-28T22:20:54Z) - On the Convexity of Discrete Time Covariance Steering in Stochastic
Linear Systems with Wasserstein Terminal Cost [1.1602089225841632]
端末状態の共分散が上界であるとき、L"所有者部分順序に関して、この問題は一意に大域的最小化状態フィードバックゲインを許容することを示す。
本研究の結果は, 特殊制御設計ツールの開発に向けての段階を定めている。
論文 参考訳(メタデータ) (2021-03-25T03:24:52Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z) - sKPNSGA-II: Knee point based MOEA with self-adaptive angle for Mission
Planning Problems [2.191505742658975]
いくつかの問題には、多くの非支配的な解をもたらす多くの目的がある。
本稿では,最も重要な解を得るために設計された新しいアルゴリズムを提案する。
このアルゴリズムは無人航空機(UAV)ミッション計画問題における実世界の応用に応用されている。
論文 参考訳(メタデータ) (2020-02-20T17:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。