論文の概要: Estimating Covariance for Global Minimum Variance Portfolio: A Decision-Focused Learning Approach
- arxiv url: http://arxiv.org/abs/2508.10776v1
- Date: Thu, 14 Aug 2025 16:00:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.39529
- Title: Estimating Covariance for Global Minimum Variance Portfolio: A Decision-Focused Learning Approach
- Title(参考訳): 大域的最小分散ポートフォリオの共分散推定:決定に焦点をあてた学習手法
- Authors: Juchan Kim, Inwoo Tae, Yongjae Lee,
- Abstract要約: 決定中心学習(DFL)は、予測誤差ではなく、決定品質を直接最適化する手法である。
DFLに基づく手法は、常に優れた意思決定性能を提供することを示す。
- 参考スコア(独自算出の注目度): 27.791742749950203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Portfolio optimization constitutes a cornerstone of risk management by quantifying the risk-return trade-off. Since it inherently depends on accurate parameter estimation under conditions of future uncertainty, the selection of appropriate input parameters is critical for effective portfolio construction. However, most conventional statistical estimators and machine learning algorithms determine these parameters by minimizing mean-squared error (MSE), a criterion that can yield suboptimal investment decisions. In this paper, we adopt decision-focused learning (DFL) - an approach that directly optimizes decision quality rather than prediction error such as MSE - to derive the global minimum-variance portfolio (GMVP). Specifically, we theoretically derive the gradient of decision loss using the analytic solution of GMVP and its properties regarding the principal components of itself. Through extensive empirical evaluation, we show that prediction-focused estimation methods may fail to produce optimal allocations in practice, whereas DFL-based methods consistently deliver superior decision performance. Furthermore, we provide a comprehensive analysis of DFL's mechanism in GMVP construction, focusing on its volatility reduction capability, decision-driving features, and estimation characteristics.
- Abstract(参考訳): ポートフォリオ最適化は、リスク・リターントレードオフの定量化によるリスク管理の基盤となる。
将来の不確実性の条件下での正確なパラメータ推定に本質的に依存するため、効果的なポートフォリオ構築には適切な入力パラメータの選択が不可欠である。
しかし、従来の統計推定器や機械学習アルゴリズムは、最適投資決定をもたらす基準である平均二乗誤差(MSE)を最小化することで、これらのパラメータを決定する。
本稿では,MSEなどの予測誤差よりも,意思決定品質を直接最適化するDFLを用いて,世界最小分散ポートフォリオ(GMVP)を導出する。
具体的には、GMVPの分析解とその主成分に関する特性を用いて、決定損失の勾配を理論的に導出する。
広範囲な経験的評価により,予測に焦点をあてた推定手法は,実際に最適なアロケーションを生成できない可能性がある一方で,DFLに基づく手法は,常に優れた意思決定性能を提供することを示す。
さらに,GMVP構築におけるDFLのメカニズムを包括的に分析し,そのボラティリティ低減能力,意思決定機能,推定特性に着目した。
関連論文リスト
- ODAR: Principled Adaptive Routing for LLM Reasoning via Active Inference [60.958331943869126]
ODAR-Expertは、原則化されたリソース割り当てによる精度と効率のトレードオフを最適化する適応的なルーティングフレームワークである。
我々は、MATHの98.2%の精度、HumanityのLast Examの54.8%を含む、強く一貫した利得を示している。
論文 参考訳(メタデータ) (2026-02-27T05:22:01Z) - Feasibility-Aware Decision-Focused Learning for Predicting Parameters in the Constraints [8.380358508407637]
決定にフォーカスした学習は、予測パラメータを使用して決定する品質を最適化するために、機械学習(ML)モデルをトレーニングすることで、第1段階を実装する。
最大推定値に基づいて2つの新しい損失関数を導出する。
このパラメータを調整することで、意思決定者がこのトレードオフを制御できることを実験的に実証する。
論文 参考訳(メタデータ) (2025-10-06T15:52:03Z) - Efficient Risk-sensitive Planning via Entropic Risk Measures [51.42922439693624]
動的プログラミングにより,エントロピーリスク対策(EntRM)のみを効率的に最適化できることを示す。
エントロピーリスクの新たな構造解析と滑らかさ特性により, この最適性を効果的に計算できることを実証する。
論文 参考訳(メタデータ) (2025-02-27T09:56:51Z) - Return Prediction for Mean-Variance Portfolio Selection: How Decision-Focused Learning Shapes Forecasting Models [25.72157859795055]
意思決定学習は、予測と最適化を統合して意思決定結果を改善する。
本研究では、DFLが平均分散最適化(MVO)における決定を最適化するために、ストックリターン予測モデルをどのように調整するかを検討する。
その結果,予測誤差が高いにもかかわらず,DFLが優れたポートフォリオ性能を実現する理由が明らかになった。
論文 参考訳(メタデータ) (2024-09-15T10:37:11Z) - Locally Convex Global Loss Network for Decision-Focused Learning [0.5242869847419834]
意思決定中心学習(DFL)は、予測モデルを統合してより良い意思決定を行うタスク指向の予測フレームワークである。
意思決定中心学習(DFL)は、予測モデルを統合してより良い意思決定を行うタスク指向の予測フレームワークである。
本稿では,一般DFLで実装可能なグローバルサロゲート損失モデルであるConvex Global Loss Network (LCGLN)を提案する。
論文 参考訳(メタデータ) (2024-03-04T09:31:56Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy Optimization [59.758009422067]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
本稿では,リスク・サーキングとリスク・アバース・ポリシー最適化のいずれにも適用可能な汎用ポリシー最適化アルゴリズムQ-Uncertainty Soft Actor-Critic (QU-SAC)を導入する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Mean-Variance Analysis in Bayesian Optimization under Uncertainty [23.39754660544729]
複数のリスク対策のトレードオフを検討する必要がある不確実な環境において、アクティブラーニング(AL)を考える。
理論的解析と数値実験により提案アルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2020-09-17T09:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。