論文の概要: A Learnheuristic Approach to A Constrained Multi-Objective Portfolio
Optimisation Problem
- arxiv url: http://arxiv.org/abs/2304.06675v1
- Date: Thu, 13 Apr 2023 17:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 13:38:53.200327
- Title: A Learnheuristic Approach to A Constrained Multi-Objective Portfolio
Optimisation Problem
- Title(参考訳): 制約付き多目的ポートフォリオ最適化問題に対する学習的アプローチ
- Authors: Sonia Bullah and Terence L. van Zyl
- Abstract要約: 本稿では,多目的ポートフォリオ最適化について検討する。
所定のリターン率のリスクを最小化しつつ、期待したリターンを最大化する目的を達成することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-objective portfolio optimisation is a critical problem researched
across various fields of study as it achieves the objective of maximising the
expected return while minimising the risk of a given portfolio at the same
time. However, many studies fail to include realistic constraints in the model,
which limits practical trading strategies. This study introduces realistic
constraints, such as transaction and holding costs, into an optimisation model.
Due to the non-convex nature of this problem, metaheuristic algorithms, such as
NSGA-II, R-NSGA-II, NSGA-III and U-NSGA-III, will play a vital role in solving
the problem. Furthermore, a learnheuristic approach is taken as surrogate
models enhance the metaheuristics employed. These algorithms are then compared
to the baseline metaheuristic algorithms, which solve a constrained,
multi-objective optimisation problem without using learnheuristics. The results
of this study show that, despite taking significantly longer to run to
completion, the learnheuristic algorithms outperform the baseline algorithms in
terms of hypervolume and rate of convergence. Furthermore, the backtesting
results indicate that utilising learnheuristics to generate weights for asset
allocation leads to a lower risk percentage, higher expected return and higher
Sharpe ratio than backtesting without using learnheuristics. This leads us to
conclude that using learnheuristics to solve a constrained, multi-objective
portfolio optimisation problem produces superior and preferable results than
solving the problem without using learnheuristics.
- Abstract(参考訳): 多目的ポートフォリオ最適化は、与えられたポートフォリオのリスクを最小化しつつ、期待されるリターンを最大化する目的を達成するため、さまざまな分野の研究で研究されている重要な問題である。
しかし、現実的な取引戦略を制限するモデルに現実的な制約を含まない研究も多い。
本研究は、トランザクションや保持コストといった現実的な制約を最適化モデルに導入する。
この問題の非凸性のため、NSGA-II、R-NSGA-II、NSGA-III、U-NSGA-IIIといったメタヒューリスティックアルゴリズムは、この問題を解決する上で重要な役割を果たす。
さらに、シュロゲートモデルが採用するメタヒューリスティックスを強化するため、学習ヒューリスティックなアプローチが採られる。
これらのアルゴリズムはベースラインメタヒューリスティックアルゴリズムと比較され、学習ヒューリスティックを使わずに制約付き多目的最適化問題を解く。
本研究の結果は, 実行に要する時間が非常に長いにもかかわらず, 学習ヒューリスティックアルゴリズムは, ハイパーボリュームと収束率において, ベースラインアルゴリズムよりも優れていたことを示している。
さらに,学習ヒューリスティックスを用いて資産配分の重み付けを行うと,学習ヒューリスティックスを使わずにバックテストよりもリスク率,期待リターン,シャープ率が低下することが示された。
その結果,制約のある多目的ポートフォリオ最適化問題を解くために学習ヒューリスティックスを用いることは,学習ヒューリスティックを使わずに問題解決するよりも優れた結果が得られることがわかった。
関連論文リスト
- Neural Active Learning Beyond Bandits [69.99592173038903]
ストリームベースとプールベースの両方のアクティブラーニングをニューラルネットワーク近似を用いて検討する。
ストリームベースおよびプールベースアクティブラーニングのためのニューラルネットワークを新たに設計したエクスプロイトと探索に基づく2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-18T21:52:14Z) - Multi-Objective Reinforcement Learning-based Approach for Pressurized Water Reactor Optimization [0.0]
PEARLは、従来のポリシーに基づく多目的強化学習法とを、単一のポリシーを学習することで区別する。
ディープラーニングと進化的テクニックにインスパイアされたいくつかのバージョンが作成され、制約のない問題ドメインと制約のない問題ドメインの両方に対応している。
2つの実用的PWRコアローディングパターン最適化問題を用いて実世界の応用性を実証した。
論文 参考訳(メタデータ) (2023-12-15T20:41:09Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - An intelligent algorithmic trading based on a risk-return reinforcement
learning algorithm [0.0]
本稿では,改良された深部強化学習アルゴリズムを用いたポートフォリオ最適化モデルを提案する。
提案アルゴリズムはアクター・クリティカル・アーキテクチャに基づいており、クリティカル・ネットワークの主な課題はポートフォリオ累積リターンの分布を学習することである。
Ape-xと呼ばれるマルチプロセスを用いて、深層強化学習訓練の高速化を図る。
論文 参考訳(メタデータ) (2022-08-23T03:20:06Z) - Adversarial Robustness with Semi-Infinite Constrained Learning [177.42714838799924]
入力に対する深い学習は、安全クリティカルなドメインでの使用に関して深刻な疑問を提起している。
本稿では,この問題を緩和するために,Langevin Monte Carlo のハイブリッドトレーニング手法を提案する。
当社のアプローチは、最先端のパフォーマンスと堅牢性の間のトレードオフを軽減することができることを示す。
論文 参考訳(メタデータ) (2021-10-29T13:30:42Z) - Runtime Analysis of Single- and Multi-Objective Evolutionary Algorithms for Chance Constrained Optimization Problems with Normally Distributed Random Variables [11.310502327308575]
独立して通常は分散しているコンポーネントのシナリオについて研究する。
期待されるコストとその分散をトレードオフする問題を多目的に定式化する。
また,本手法は,木に散らばった最小限の問題に対して最適解の集合を計算するためにも有効であることを示す。
論文 参考訳(メタデータ) (2021-09-13T09:24:23Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。