論文の概要: A note on the smallest eigenvalue of the empirical covariance of causal
Gaussian processes
- arxiv url: http://arxiv.org/abs/2212.09508v2
- Date: Fri, 27 Oct 2023 22:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:26:54.846998
- Title: A note on the smallest eigenvalue of the empirical covariance of causal
Gaussian processes
- Title(参考訳): 因果的ガウス過程の経験的共分散の最小固有値について
- Authors: Ingvar Ziemann
- Abstract要約: 因果ガウス過程における経験的共分散の最小固有値の有界性を示す。
因果分解を用いたガウス二次形式に対して一方的な尾不等式を確立する。
- 参考スコア(独自算出の注目度): 1.223779595809275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple proof for bounding the smallest eigenvalue of the
empirical covariance in a causal Gaussian process. Along the way, we establish
a one-sided tail inequality for Gaussian quadratic forms using a causal
decomposition. Our proof only uses elementary facts about the Gaussian
distribution and the union bound. We conclude with an example in which we
provide a performance guarantee for least squares identification of a vector
autoregression.
- Abstract(参考訳): 因果的ガウス過程における経験的共分散の最小固有値の境界に関する簡単な証明を示す。
その過程で、因果分解を用いたガウス二次形式に対する片側尾不等式を確立する。
我々の証明はガウス分布とユニオン境界に関する基本的な事実のみを用いる。
結論は、ベクトル自己回帰の最小二乗同定に対して性能保証を提供する例である。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - A covariance representation and an elementary proof of the Gaussian concentration inequality [0.0]
特徴関数に基づく共分散表現を用いて、ガウス濃度の不等式に関する既知の初等証明を示す。
他にもいくつかのアプリケーションが紹介されている。
論文 参考訳(メタデータ) (2024-10-09T14:30:55Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - Statistically Optimal Generative Modeling with Maximum Deviation from the Empirical Distribution [2.1146241717926664]
本稿では, 左非可逆なプッシュフォワード写像に制約されたワッサーシュタインGANが, 複製を回避し, 経験的分布から著しく逸脱する分布を生成することを示す。
我々の最も重要な寄与は、生成分布と経験的分布の間のワッサーシュタイン-1距離の有限サンプル下界を与える。
また、生成分布と真のデータ生成との距離に有限サンプル上限を確立する。
論文 参考訳(メタデータ) (2023-07-31T06:11:57Z) - On counterfactual inference with unobserved confounding [36.18241676876348]
独立だが不均一な単位を持つ観測的研究を前提として、各単位の反実分布を学習することが目的である。
我々は、すべての$n$サンプルをプールして、すべての$n$パラメータベクトルを共同で学習する凸目的を導入する。
対数的ソボレフ不等式を満たすためにコンパクトに支持された分布に対して十分な条件を導出する。
論文 参考訳(メタデータ) (2022-11-14T04:14:37Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Nearest neighbor empirical processes [7.034466417392574]
近辺から所与の点$x$への応答に基づく実証測度を導入し、中央統計量として研究する。
均一な非漸近境界は、一様エントロピー数上でよく知られた条件の下で成立し、しばしばVapnik-Chervonenkis (Vapnik-Chervonenkis) と呼ばれる。
これは、標準公式を用いて、全データの代わりに最も近い隣人だけを用いて分散を推定できる可能性を示唆している。
論文 参考訳(メタデータ) (2021-10-27T08:15:20Z) - Learning Sparse Graph with Minimax Concave Penalty under Gaussian Markov
Random Fields [51.07460861448716]
本稿では,データから学ぶための凸解析フレームワークを提案する。
三角凸分解はその上部に対応する変換によって保証されることを示す。
論文 参考訳(メタデータ) (2021-09-17T17:46:12Z) - Concentration inequality for U-statistics of order two for uniformly
ergodic Markov chains [0.0]
我々は、一様エルゴード型マルコフ鎖に対する位数2のU-統計量に対する濃度不等式を証明した。
独立確率変数と正準核のU統計値の集中結果を示したArconesとGin'eの収束率を復元できることが示される。
論文 参考訳(メタデータ) (2020-11-20T15:14:34Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。