論文の概要: Fused-Lasso Regularized Cholesky Factors of Large Nonstationary
Covariance Matrices of Longitudinal Data
- arxiv url: http://arxiv.org/abs/2007.11168v1
- Date: Wed, 22 Jul 2020 02:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 22:01:18.424029
- Title: Fused-Lasso Regularized Cholesky Factors of Large Nonstationary
Covariance Matrices of Longitudinal Data
- Title(参考訳): 縦方向データの大規模非定常共分散行列の融合ラッソ正規化コレスキー因子
- Authors: Aramayis Dallakyan and Mohsen Pourahmadi
- Abstract要約: 大きな共分散行列のコレスキー因子のサブ対角線の滑らかさは、時系列および長手データに対する自己回帰モデルの非定常度の度合いと密接に関連している。
行ごとに分離するColesky因子のスパース推定アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smoothness of the subdiagonals of the Cholesky factor of large covariance
matrices is closely related to the degrees of nonstationarity of autoregressive
models for time series and longitudinal data. Heuristically, one expects for a
nearly stationary covariance matrix the entries in each subdiagonal of the
Cholesky factor of its inverse to be nearly the same in the sense that sum of
absolute values of successive terms is small. Statistically such smoothness is
achieved by regularizing each subdiagonal using fused-type lasso penalties. We
rely on the standard Cholesky factor as the new parameters within a regularized
normal likelihood setup which guarantees: (1) joint convexity of the likelihood
function, (2) strict convexity of the likelihood function restricted to each
subdiagonal even when $n<p$, and (3) positive-definiteness of the estimated
covariance matrix. A block coordinate descent algorithm, where each block is a
subdiagonal, is proposed and its convergence is established under mild
conditions. Lack of decoupling of the penalized likelihood function into a sum
of functions involving individual subdiagonals gives rise to some computational
challenges and advantages relative to two recent algorithms for sparse
estimation of the Cholesky factor which decouple row-wise. Simulation results
and real data analysis show the scope and good performance of the proposed
methodology.
- Abstract(参考訳): 大きな共分散行列のコレスキー因子の対角線の滑らかさは、時系列および長手データに対する自己回帰モデルの非定常性の度合いと密接に関連している。
ヒューリスティックには、その逆のコレスキー因子の各部分対角線の成分が、連続項の絶対値の和が小さいという意味でほぼ同じであるように、ほぼ定常な共分散行列を期待する。
統計的にこのような滑らかさは、融合型ラッソペナルティを用いて各サブ対角線を規則化することによって達成される。
我々は、標準コレスキー因子を正規化正規化正規分布における新しいパラメータとして、(1)確率関数のジョイント凸性、(2)n<p$ の場合にも各部分対角に制限された帰納関数の厳密な凸性、(3)推定共分散行列の正定値性を保証する。
各ブロックが対角線であるブロック座標降下アルゴリズムを提案し、その収束性は穏やかな条件下で確立される。
ペナルティ化度関数を個々の対角線を含む関数の和に分解しないことは、行を分離するコレスキー因子のスパース推定のための最近の2つのアルゴリズムと比較して、いくつかの計算上の課題と利点をもたらす。
シミュレーション結果と実データ解析により,提案手法の適用範囲と性能を示す。
関連論文リスト
- Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Near optimal sample complexity for matrix and tensor normal models via
geodesic convexity [5.191641077435773]
いくつかの自然測度において、最大極大推定器(MLE)によって達成された誤差に対する漸近的境界を示す。
サンプルの複雑性境界と同じ条件下では、フリップフロップアルゴリズム(英語版)として知られるMLEを反復的に計算する手法が高い確率で線形に収束することを示す。
論文 参考訳(メタデータ) (2021-10-14T17:47:00Z) - Sparse Quadratic Optimisation over the Stiefel Manifold with Application
to Permutation Synchronisation [71.27989298860481]
二次目的関数を最大化するスティーフェル多様体上の行列を求める非最適化問題に対処する。
そこで本研究では,支配的固有空間行列を求めるための,単純かつ効果的なスパーシティプロモーティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-30T19:17:35Z) - EiGLasso for Scalable Sparse Kronecker-Sum Inverse Covariance Estimation [1.370633147306388]
我々はKronecker-sum逆共分散推定のための高度にスケーラブルなKronecker-sum逆共分散推定法であるEeiGLassoを紹介する。
EiGLassoは既存の手法に比べて2~3桁の速度アップを実現していることを示す。
論文 参考訳(メタデータ) (2021-05-20T16:22:50Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Random extrapolation for primal-dual coordinate descent [61.55967255151027]
本稿では,データ行列の疎度と目的関数の好適な構造に適応する,ランダムに外挿した原始-双対座標降下法を提案する。
一般凸凹の場合, 主対差と目的値に対するシーケンスのほぼ確実に収束と最適サブ線形収束率を示す。
論文 参考訳(メタデータ) (2020-07-13T17:39:35Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Explicit Regularization of Stochastic Gradient Methods through Duality [9.131027490864938]
ランダム化された双対座標の上昇に基づくランダム化されたDykstraスタイルのアルゴリズムを提案する。
座標降下を高速化するために、補間系における既存の勾配法よりも収束特性がよい新しいアルゴリズムを得る。
論文 参考訳(メタデータ) (2020-03-30T20:44:56Z) - A Block Coordinate Descent-based Projected Gradient Algorithm for
Orthogonal Non-negative Matrix Factorization [0.0]
本稿では非負行列分解問題(NMF)に対する投影勾配法(PG)を用いる。
正則性制約をペナライズし,ブロック座標降下法を用いてPG法を適用した。
論文 参考訳(メタデータ) (2020-03-23T13:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。