論文の概要: Kernel Minimum Divergence Portfolios
- arxiv url: http://arxiv.org/abs/2110.09516v1
- Date: Fri, 15 Oct 2021 21:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 23:16:58.430881
- Title: Kernel Minimum Divergence Portfolios
- Title(参考訳): カーネル最小分散ポートフォリオ
- Authors: Linda Chamakh and Zolt\'an Szab\'o
- Abstract要約: 本稿では,カーネルと最適トランスポート(KOT)をベースとした分散処理を用いてタスクに取り組むことを提案する。
このような解析的知識がMDD推定器のより高速な収束に繋がることを示す。
KOT推定器の性能向上を示す数値実験を行った。
- 参考スコア(独自算出の注目度): 1.776746672434207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Portfolio optimization is a key challenge in finance with the aim of creating
portfolios matching the investors' preference. The target distribution approach
relying on the Kullback-Leibler or the $f$-divergence represents one of the
most effective forms of achieving this goal. In this paper, we propose to use
kernel and optimal transport (KOT) based divergences to tackle the task, which
relax the assumptions and the optimization constraints of the previous
approaches. In case of the kernel-based maximum mean discrepancy (MMD) we (i)
prove the analytic computability of the underlying mean embedding for various
target distribution-kernel pairs, (ii) show that such analytic knowledge can
lead to faster convergence of MMD estimators, and (iii) extend the results to
the unbounded exponential kernel with minimax lower bounds. Numerical
experiments demonstrate the improved performance of our KOT estimators both on
synthetic and real-world examples.
- Abstract(参考訳): ポートフォリオ最適化はファイナンスにおける重要な課題であり、投資家の好みに合致したポートフォリオを作成することを目的としている。
Kullback-Leibler や $f$-divergence に依存するターゲット分布アプローチは、この目標を達成する上で最も効果的な形式の1つである。
本稿では,カーネルと最適輸送(KOT)に基づく分岐を用いてタスクに対処し,従来の手法の仮定や最適化の制約を緩和する手法を提案する。
kernel-based maximum mean discrepancy (mmd) weの場合
(i)様々なターゲット分布・カーネル対に対する基礎となる平均埋め込みの分析計算可能性を証明する。
(ii)このような分析的知識がmmd推定器の収束を早めることを示し、
(iii) 結果はミニマックス下限を持つ非有界指数核に拡張する。
数値実験により,KOT推定器の性能は,実世界の実例と合成例の両方で向上した。
関連論文リスト
- BOtied: Multi-objective Bayesian optimization with tied multivariate
ranks [49.85896045032822]
非支配解と最高多変量階との自然な関係を示し、これは合同累積分布関数(CDF)の最外層線と一致する。
我々はCDFインジケータに基づくBOtiedと呼ばれる取得関数を提案する。
論文 参考訳(メタデータ) (2023-06-01T04:50:06Z) - Distributed Statistical Min-Max Learning in the Presence of Byzantine
Agents [34.46660729815201]
本稿では,ビザンチンの敵対的エージェントと競合する新たな課題に焦点をあて,マルチエージェントのmin-max学習問題を考察する。
我々の主な貢献は、滑らかな凸凹関数と滑らかな凸凸凸関数に対する頑健な外勾配アルゴリズムのクリップ解析を提供することである。
我々の利率はほぼ最適であり、敵の汚職の影響と非汚職エージェント間の協力の利益の両方を明らかにしている。
論文 参考訳(メタデータ) (2022-04-07T03:36:28Z) - Pessimistic Minimax Value Iteration: Provably Efficient Equilibrium
Learning from Offline Datasets [101.5329678997916]
両プレイヤーゼロサムマルコフゲーム(MG)をオフライン環境で研究する。
目標は、事前収集されたデータセットに基づいて、近似的なナッシュ均衡(NE)ポリシーペアを見つけることである。
論文 参考訳(メタデータ) (2022-02-15T15:39:30Z) - Distribution Regression with Sliced Wasserstein Kernels [45.916342378789174]
分布回帰のための最初のOTに基づく推定器を提案する。
このような表現に基づくカーネルリッジ回帰推定器の理論的性質について検討する。
論文 参考訳(メタデータ) (2022-02-08T15:21:56Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - On Centralized and Distributed Mirror Descent: Exponential Convergence
Analysis Using Quadratic Constraints [8.336315962271396]
ミラー降下(MD)は、勾配降下(GD)を含むいくつかのアルゴリズムを仮定する強力な一階最適化手法である。
本研究では,強い凸と滑らかな問題に対して,集中型および分散型のMDの正確な収束率について検討した。
論文 参考訳(メタデータ) (2021-05-29T23:05:56Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Finite Sample Analysis of Minimax Offline Reinforcement Learning:
Completeness, Fast Rates and First-Order Efficiency [83.02999769628593]
強化学習におけるオフ・ポリティィ・アセスメント(OPE)の理論的特徴について述べる。
ミニマックス法により、重みと品質関数の高速収束を実現することができることを示す。
非タブラル環境における1次効率を持つ最初の有限サンプル結果を示す。
論文 参考訳(メタデータ) (2021-02-05T03:20:39Z) - Information-Theoretic Multi-Objective Bayesian Optimization with
Continuous Approximations [44.25245545568633]
この問題を解決するために,情報理論を用いた連続近似を用いた多目的ベイズ最適化(iMOCA)を提案する。
種々の総合的および実世界のベンチマーク実験により、iMOCAは既存の単一忠実度法よりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2020-09-12T01:46:03Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z) - Adopting Robustness and Optimality in Fitting and Learning [4.511425319032815]
我々は、ロバスト最適化(RO)指数 $lambda$ を $-infty 桁にプッシュすることで、改良された指数化推定器を一般化する。
このロバスト性はRONISTによって適応的に実現され制御される。
論文 参考訳(メタデータ) (2015-10-13T19:14:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。