論文の概要: Covariance Prediction via Convex Optimization
- arxiv url: http://arxiv.org/abs/2101.12416v1
- Date: Fri, 29 Jan 2021 06:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 12:58:10.848100
- Title: Covariance Prediction via Convex Optimization
- Title(参考訳): 凸最適化による共分散予測
- Authors: Shane Barratt and Stephen Boyd
- Abstract要約: 一般化線形モデルの形式を持つ共分散予測器,すなわち特徴のアフィン関数,および逆リンク関数を記述する。
log-likelihoodは予測パラメータの凹関数であるため、予測パラメータの適合には凸最適化が伴う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of predicting the covariance of a zero mean Gaussian
vector, based on another feature vector. We describe a covariance predictor
that has the form of a generalized linear model, i.e., an affine function of
the features followed by an inverse link function that maps vectors to
symmetric positive definite matrices. The log-likelihood is a concave function
of the predictor parameters, so fitting the predictor involves convex
optimization. Such predictors can be combined with others, or recursively
applied to improve performance.
- Abstract(参考訳): 我々は、別の特徴ベクトルに基づいて、ゼロ平均ガウスベクトルの共分散を予測する問題を考える。
一般化線形モデル、すなわち特徴のアフィン関数の形式を持つ共分散予測子を、ベクトルを対称正有限行列に写す逆リンク関数として記述する。
log-likelihoodは予測パラメータの凹関数であるため、予測パラメータの適合には凸最適化が伴う。
このような予測器を他のものと組み合わせたり、あるいは性能を改善するために再帰的に適用することができる。
関連論文リスト
- EigenVI: score-based variational inference with orthogonal function expansions [23.696028065251497]
EigenVIはブラックボックス変分推論(BBVI)のための固有値に基づくアプローチである
我々はEigenVIを用いて様々なターゲット分布を近似し、例えば後方dbのベイズモデルのベンチマークスイートを含む。
論文 参考訳(メタデータ) (2024-10-31T15:48:34Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - A Functional Model Method for Nonconvex Nonsmooth Conditional Stochastic Optimization [0.0]
本稿では, 基底乱ベクトルの非線形関数の期待値と, 基底乱ベクトルに依存する他の関数の条件付き期待値を含む最適化問題を考察する。
本研究では, 外部関数が滑らかで, 内部関数が異なる非制約学習問題に対して, 特殊な単一スケール法を提案する。
論文 参考訳(メタデータ) (2024-05-17T14:35:50Z) - Functional Partial Least-Squares: Optimal Rates and Adaptation [0.0]
共役勾配法に関連する機能的最小二乗推定器(PLS)の新たな定式化を提案する。
推定器は楕円体のクラス上で(ほぼ)最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2024-02-16T23:47:47Z) - Convex Parameter Estimation of Perturbed Multivariate Generalized
Gaussian Distributions [18.95928707619676]
本稿では,MGGDパラメータの確立された特性を持つ凸定式化を提案する。
提案するフレームワークは, 精度行列, 平均, 摂動の様々な正規化を組み合わせ, 柔軟である。
実験により, 平均ベクトルパラメータに対して, 同様の性能でより正確な精度と共分散行列推定を行うことができた。
論文 参考訳(メタデータ) (2023-12-12T18:08:04Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。