論文の概要: Inference on the change point in high dimensional time series models via
plug in least squares
- arxiv url: http://arxiv.org/abs/2007.01888v3
- Date: Sat, 11 Jul 2020 05:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:54:41.363862
- Title: Inference on the change point in high dimensional time series models via
plug in least squares
- Title(参考訳): 最小二乗プラグを用いた高次元時系列モデルにおける変化点の推定
- Authors: Abhishek Kaul, Stergios B. Fotopoulos, Venkata K. Jandhyala, Abolfazl
Safikhani
- Abstract要約: 本研究では,変化が高次元ランダムベクトルの平均となる点パラメータの最小2乗推定器について検討する。
この推定器が平均パラメータの推定におけるプラグに対する十分な適応性を持つ十分な条件を得る。
- 参考スコア(独自算出の注目度): 2.7718973516070684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a plug in least squares estimator for the change point parameter
where change is in the mean of a high dimensional random vector under
subgaussian or subexponential distributions. We obtain sufficient conditions
under which this estimator possesses sufficient adaptivity against plug in
estimates of mean parameters in order to yield an optimal rate of convergence
$O_p(\xi^{-2})$ in the integer scale. This rate is preserved while allowing
high dimensionality as well as a potentially diminishing jump size $\xi,$
provided $s\log (p\vee T)=o(\surd(Tl_T))$ or $s\log^{3/2}(p\vee
T)=o(\surd(Tl_T))$ in the subgaussian and subexponential cases, respectively.
Here $s,p,T$ and $l_T$ represent a sparsity parameter, model dimension,
sampling period and the separation of the change point from its parametric
boundary. Moreover, since the rate of convergence is free of $s,p$ and
logarithmic terms of $T,$ it allows the existence of limiting distributions.
These distributions are then derived as the {\it argmax} of a two sided
negative drift Brownian motion or a two sided negative drift random walk under
vanishing and non-vanishing jump size regimes, respectively. Thereby allowing
inference of the change point parameter in the high dimensional setting.
Feasible algorithms for implementation of the proposed methodology are
provided. Theoretical results are supported with monte-carlo simulations.
- Abstract(参考訳): 本研究では,変点パラメータの最小2乗推定器について,ガウス分布や指数分布の下での高次元ランダムベクトルの平均値の変化について検討する。
この推定器が平均パラメータの推定値のプラグに対して十分な適応性を持ち、整数スケールで最適収束率$O_p(\xi^{-2})$を得るための十分な条件を得る。
この値は、高次元を許容しつつ、潜在的に減少するジャンプサイズ $\xi,$ provided $s\log (p\vee T)=o(\surd(Tl_T))$ or $s\log^{3/2}(p\vee T)=o(\surd(Tl_T))$ を、それぞれ部分ガウス的および部分指数的ケースで許容する。
ここで$s,p,T$と$l_T$は、パラメータ、モデル次元、サンプリング期間、およびパラメータ境界からの変更点の分離を表す。
さらに、収束率は$s,p$ と対数項 $t から自由であるため、それは制限分布の存在を可能にする。
これらの分布は、二つの辺の負のドリフトブラウン運動の {\displaystyle {\it argmax} として導出され、また、消失した状態での両側の負のドリフトランダムウォークと、バニッシュでないジャンプサイズのレジームとして導かれる。
これにより、高次元設定における変化点パラメータの推測が可能になる。
提案手法の実装のための実現可能なアルゴリズムを提供する。
理論的結果はモンテカルロシミュレーションで支持される。
関連論文リスト
- Variable Selection in Convex Piecewise Linear Regression [5.366354612549172]
本稿では,凸片方向線形回帰における変数選択の解としてスパース勾配を提案する。
亜ガウス雑音下でのSpGDには非漸近局所収束解析が提供される。
論文 参考訳(メタデータ) (2024-11-04T16:19:09Z) - Convergence of Unadjusted Langevin in High Dimensions: Delocalization of Bias [13.642712817536072]
問題の次元が$d$になるにつれて、所望の誤差内で収束を保証するのに必要なイテレーションの数が増加することを示す。
私たちが取り組んだ重要な技術的課題は、収束を測定するための$W_2,ellinfty$メートル法に一段階の縮約性がないことである。
論文 参考訳(メタデータ) (2024-08-20T01:24:54Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - On the $O(\frac{\sqrt{d}}{T^{1/4}})$ Convergence Rate of RMSProp and Its Momentum Extension Measured by $\ell_1$ Norm [59.65871549878937]
本稿では、RMSPropとその運動量拡張を考察し、$frac1Tsum_k=1Tの収束速度を確立する。
我々の収束率は、次元$d$を除くすべての係数に関して下界と一致する。
収束率は$frac1Tsum_k=1Tと類似していると考えられる。
論文 参考訳(メタデータ) (2024-02-01T07:21:32Z) - Efficient Estimation of the Central Mean Subspace via Smoothed Gradient Outer Products [12.047053875716506]
マルチインデックスモデルに対する十分な次元削減の問題を考察する。
高速パラメトリック収束速度が$C_d cdot n-1/2$であることを示す。
論文 参考訳(メタデータ) (2023-12-24T12:28:07Z) - Efficient Sampling of Stochastic Differential Equations with Positive
Semi-Definite Models [91.22420505636006]
本稿では, ドリフト関数と拡散行列を考慮し, 微分方程式からの効率的なサンプリング問題を扱う。
1/varepsilonは$m2d log (1/varepsilon)$である。
以上の結果から,真の解がより滑らかになるにつれて,どのような凸性も必要とせず,次元の呪いを回避できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T02:50:49Z) - Adaptive Stochastic Variance Reduction for Non-convex Finite-Sum
Minimization [52.25843977506935]
有限サム構造をもつ$L$-smooth, non-deuction関数に対して, AdaSpider と呼ばれる適応分散法を提案する。
そうすることで、$tildeOleft + st/epsilonコールで$epsilon-stationaryポイントを計算することができます。
論文 参考訳(メタデータ) (2022-11-03T14:41:46Z) - Last iterate convergence of SGD for Least-Squares in the Interpolation
regime [19.05750582096579]
基本最小二乗構成におけるノイズレスモデルについて検討する。
最適予測器が完全に入力に適合すると仮定し、$langletheta_*, phi(X) rangle = Y$, ここで$phi(X)$は無限次元の非線型特徴写像を表す。
論文 参考訳(メタデータ) (2021-02-05T14:02:20Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - Linear Time Sinkhorn Divergences using Positive Features [51.50788603386766]
エントロピー正則化で最適な輸送を解くには、ベクトルに繰り返し適用される$ntimes n$ kernel matrixを計算する必要がある。
代わりに、$c(x,y)=-logdotpvarphi(x)varphi(y)$ ここで$varphi$は、地上空間から正のorthant $RRr_+$への写像であり、$rll n$である。
論文 参考訳(メタデータ) (2020-06-12T10:21:40Z) - A Simple Convergence Proof of Adam and Adagrad [74.24716715922759]
我々はAdam Adagradと$O(d(N)/st)$アルゴリズムの収束の証明を示す。
Adamはデフォルトパラメータで使用する場合と同じ収束$O(d(N)/st)$で収束する。
論文 参考訳(メタデータ) (2020-03-05T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。