論文の概要: The Lepto-Variance of Stock Returns
- arxiv url: http://arxiv.org/abs/2207.04867v1
- Date: Wed, 29 Jun 2022 04:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 19:14:07.082821
- Title: The Lepto-Variance of Stock Returns
- Title(参考訳): 株リターンのレプト分散
- Authors: Vassilis Polimenis
- Abstract要約: Regression Treeは、特定の特徴を使ってサンプルをソートし、ノードから子供への最大分散還元を生成する分割点を見つける。
私たちのキーとなる観察は、(MSEドロップの観点で)最適な要素は、常にターゲット自身であり、これがターゲットを最も明確に分離していることです。
1ビットと2ビットのRTをベースとしたレプト構造解析を行い、IBM株の日次リターンを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Regression Tree (RT) sorts the samples using a specific feature and finds
the split point that produces the maximum variance reduction from a node to its
children. Our key observation is that the best factor to use (in terms of MSE
drop) is always the target itself, as this most clearly separates the target.
Thus using the target as the splitting factor provides an upper bound on MSE
drop (or lower bound on the residual children MSE). Based on this observation,
we define the k-bit lepto-variance ${\lambda}k^2$ of a target variable (or
equivalently the lepto-variance at a specific depth k) as the variance that
cannot be removed by any regression tree of a depth equal to k. As the upper
bound performance for any feature, we believe ${\lambda}k^2$ to be an
interesting statistical concept related to the underlying structure of the
sample as it quantifies the resolving power of the RT for the sample. The max
variance that may be explained using RTs of depth up to k is called the sample
k-bit macro-variance. At any depth, total sample variance is thus decomposed
into lepto-variance ${\lambda}^2$ and macro-variance ${\mu}^2$. We demonstrate
the concept, by performing 1- and 2-bit RT based lepto-structure analysis for
daily IBM stock returns.
- Abstract(参考訳): Regression Tree(RT)は、特定の特徴を使ってサンプルをソートし、ノードから子供への最大分散還元を生成する分割点を見つける。
私たちのキーとなる観察は、MSEドロップの観点で使う最善の要素は常にターゲット自身であり、これがターゲットを最も明確に分離していることです。
したがって、ターゲットを分割因子として使用すると、MSEドロップの上界(または残りの子供MSEの下限)が得られる。
この観測に基づいて、対象変数の k ビットレプト分散 ${\lambda}k^2$ を、k と等しい深さの回帰木によって取り除けない分散として定義する。
任意の特徴に対する上限性能として、${\lambda}k^2$はサンプルに対するRTの解能を定量化するため、サンプルの基盤構造に関連する興味深い統計的概念であると信じている。
k までの深さの RT を用いて説明できる最大分散は、サンプル k ビットのマクロ分散と呼ばれる。
いずれの深さにおいても、全サンプル分散はレプト分散${\lambda}^2$とマクロ分散${\mu}^2$に分解される。
我々は1ビットと2ビットのRTに基づくレプト構造解析を行い、IBM株の日次リターンを実証する。
関連論文リスト
- Variance Reduction for the Independent Metropolis Sampler [11.074080383657453]
我々は、$pi$がKL分散の下で別の密度$q$に十分近い場合、$pi$からサンプルを得る独立したサンプリング器は、$pi$からサンプリングするi.d.よりも小さな分散を達成することを証明した。
提案手法は,KLの目標との偏差が低減されるように,提案密度に適応する適応型独立メトロポリスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-25T16:38:53Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Variational Inference for Uncertainty Quantification: an Analysis of Trade-offs [10.075911116030621]
p$ が分解されない場合、任意の分解された近似 $qin Q$ は以下の3つの不確実性尺度のうちの1つを正確に推定できることを示す。
古典的なKulback-Leiblerの発散、より一般的なR'enyiの発散、および$nabla log p$ と $nabla log q$ を比較するスコアベースの発散を考える。
論文 参考訳(メタデータ) (2024-03-20T16:56:08Z) - Estimation of entropy-regularized optimal transport maps between
non-compactly supported measures [15.857723276537248]
本稿では,ガウシアン以下の音源と目標測度の間の2乗ユークリッドコストでエントロピー規則化された最適輸送マップを推定する問題に対処する。
論文 参考訳(メタデータ) (2023-11-20T17:18:21Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - How Does Pseudo-Labeling Affect the Generalization Error of the
Semi-Supervised Gibbs Algorithm? [73.80001705134147]
擬似ラベル付き半教師付き学習(SSL)におけるGibsアルゴリズムによる予測一般化誤差(ゲンエラー)を正確に評価する。
ゲンエラーは、出力仮説、擬ラベルデータセット、ラベル付きデータセットの間の対称性付きKL情報によって表現される。
論文 参考訳(メタデータ) (2022-10-15T04:11:56Z) - On the Variance of the Fisher Information for Deep Learning [79.71410479830222]
Fisher InformationMatrix (FIM) はディープラーニングの領域に応用されている。
正確なFIMは、クローズドな形で利用できないか、計算に高すぎるかのいずれかである。
FIMの2つの等価表現に基づく2つの推定器について検討する。
論文 参考訳(メタデータ) (2021-07-09T04:46:50Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Optimal Sub-Gaussian Mean Estimation in $\mathbb{R}$ [5.457150493905064]
ガウス下収束を考慮した新しい推定器を提案する。
我々の推定器はその分散に関する事前の知識を必要としない。
我々の推定器の構成と分析は、他の問題に一般化可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-11-17T02:47:24Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。