論文の概要: Kernel Minimum Divergence Portfolios
- arxiv url: http://arxiv.org/abs/2110.09516v1
- Date: Fri, 15 Oct 2021 21:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 23:16:58.430881
- Title: Kernel Minimum Divergence Portfolios
- Title(参考訳): カーネル最小分散ポートフォリオ
- Authors: Linda Chamakh and Zolt\'an Szab\'o
- Abstract要約: 本稿では,カーネルと最適トランスポート(KOT)をベースとした分散処理を用いてタスクに取り組むことを提案する。
このような解析的知識がMDD推定器のより高速な収束に繋がることを示す。
KOT推定器の性能向上を示す数値実験を行った。
- 参考スコア(独自算出の注目度): 1.776746672434207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Portfolio optimization is a key challenge in finance with the aim of creating
portfolios matching the investors' preference. The target distribution approach
relying on the Kullback-Leibler or the $f$-divergence represents one of the
most effective forms of achieving this goal. In this paper, we propose to use
kernel and optimal transport (KOT) based divergences to tackle the task, which
relax the assumptions and the optimization constraints of the previous
approaches. In case of the kernel-based maximum mean discrepancy (MMD) we (i)
prove the analytic computability of the underlying mean embedding for various
target distribution-kernel pairs, (ii) show that such analytic knowledge can
lead to faster convergence of MMD estimators, and (iii) extend the results to
the unbounded exponential kernel with minimax lower bounds. Numerical
experiments demonstrate the improved performance of our KOT estimators both on
synthetic and real-world examples.
- Abstract(参考訳): ポートフォリオ最適化はファイナンスにおける重要な課題であり、投資家の好みに合致したポートフォリオを作成することを目的としている。
Kullback-Leibler や $f$-divergence に依存するターゲット分布アプローチは、この目標を達成する上で最も効果的な形式の1つである。
本稿では,カーネルと最適輸送(KOT)に基づく分岐を用いてタスクに対処し,従来の手法の仮定や最適化の制約を緩和する手法を提案する。
kernel-based maximum mean discrepancy (mmd) weの場合
(i)様々なターゲット分布・カーネル対に対する基礎となる平均埋め込みの分析計算可能性を証明する。
(ii)このような分析的知識がmmd推定器の収束を早めることを示し、
(iii) 結果はミニマックス下限を持つ非有界指数核に拡張する。
数値実験により,KOT推定器の性能は,実世界の実例と合成例の両方で向上した。
関連論文リスト
- A Likelihood Based Approach to Distribution Regression Using Conditional Deep Generative Models [6.647819824559201]
本研究では,条件付き深部生成モデルの推定のための可能性に基づくアプローチの大規模サンプル特性について検討する。
その結果,条件分布を推定するための最大極大推定器の収束率を導いた。
論文 参考訳(メタデータ) (2024-10-02T20:46:21Z) - A Geometric Unification of Distributionally Robust Covariance Estimators: Shrinking the Spectrum by Inflating the Ambiguity Set [20.166217494056916]
制約的な仮定を課さずに共分散推定器を構築するための原理的手法を提案する。
頑健な推定器は効率的に計算可能で一貫したものであることを示す。
合成および実データに基づく数値実験により、我々の頑健な推定器は最先端の推定器と競合していることが示された。
論文 参考訳(メタデータ) (2024-05-30T15:01:18Z) - Partial identification of kernel based two sample tests with mismeasured
data [5.076419064097733]
最大平均離散性(MMD)のような2サンプルテストは、機械学習アプリケーションにおける2つの分布の違いを検出するためにしばしば使用される。
我々は,1つの分布の非ランダムな$epsilon$%が互いに誤ってグループ化されるような,$epsilon$-contaminationに基づくMDDの推定について検討した。
そこで本研究では,これらの境界を推定する手法を提案し,サンプルサイズが大きくなるにつれてMDD上の最も鋭い限界に収束する推定値を示す。
論文 参考訳(メタデータ) (2023-08-07T13:21:58Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Estimation Beyond Data Reweighting: Kernel Method of Moments [9.845144212844662]
モーメントのカーネル法(KMM)と呼ばれる最大平均誤差に基づく経験的確率推定器を提供する。
条件付きモーメント制限タスクにおいて,本手法が競合性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-18T11:52:43Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Optimal variance-reduced stochastic approximation in Banach spaces [114.8734960258221]
可分バナッハ空間上で定義された収縮作用素の定点を推定する問題について検討する。
演算子欠陥と推定誤差の両方に対して漸近的でない境界を確立する。
論文 参考訳(メタデータ) (2022-01-21T02:46:57Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Fundamental Limits of Ridge-Regularized Empirical Risk Minimization in
High Dimensions [41.7567932118769]
経験的リスク最小化アルゴリズムは、様々な推定や予測タスクで広く利用されている。
本稿では,コンベックスEMMの統計的精度に関する基礎的限界を推論のために初めて特徴づける。
論文 参考訳(メタデータ) (2020-06-16T04:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。