論文の概要: Optimal estimation of Gaussian DAG models
- arxiv url: http://arxiv.org/abs/2201.10548v1
- Date: Tue, 25 Jan 2022 18:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:04:27.468024
- Title: Optimal estimation of Gaussian DAG models
- Title(参考訳): ガウスDAGモデルの最適推定
- Authors: Ming Gao, Wai Ming Tai, Bryon Aragam
- Abstract要約: 観測データからガウス指向非巡回グラフ(DAG)を学習する際の最適なサンプル複雑性について検討した。
我々の結果は、より一般的な同定の仮定や、ガウス以下の誤りにも及んでいる。
- 参考スコア(独自算出の注目度): 14.240183323622288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the optimal sample complexity of learning a Gaussian directed
acyclic graph (DAG) from observational data. Our main result establishes the
minimax optimal sample complexity for learning the structure of a linear
Gaussian DAG model with equal variances to be $n\asymp q\log(d/q)$, where $q$
is the maximum number of parents and $d$ is the number of nodes. We further
make comparisons with the classical problem of learning (undirected) Gaussian
graphical models, showing that under the equal variance assumption, these two
problems share the same optimal sample complexity. In other words, at least for
Gaussian models with equal error variances, learning a directed graphical model
is not more difficult than learning an undirected graphical model. Our results
also extend to more general identification assumptions as well as subgaussian
errors.
- Abstract(参考訳): 観測データからガウス有向非巡回グラフ(dag)を学習する最適サンプル複雑性について検討した。
我々の主な成果は、線形ガウスDAGモデルの構造を等分散で学習するための最小値サンプルの複雑さを$n\asymp q\log(d/q)$と定め、$q$は両親の最大数、$d$はノードの数である。
さらに, 学習(無向)ガウス図形モデルとの比較を行い, 等分散仮定の下では, これら2つの問題は同じ最適サンプル複雑性を共有していることを示した。
言い換えれば、少なくとも同じ誤差分散を持つガウスモデルでは、有向グラフィカルモデルを学ぶことは、無向グラフィカルモデルを学ぶことよりも難しくない。
また,より一般的な同定仮定やサブガウシアン誤差についても検討した。
関連論文リスト
- Generalized Gaussian Model for Learned Image Compression [15.345700928780783]
学習画像圧縮において、確率モデルは潜伏変数の分布を特徴づける上で重要な役割を果たす。
より柔軟な潜在分布モデリングのために、ガウスモデルを一般化ガウスモデルに拡張する。
提案した一般化されたガウスモデルと改良されたトレーニング手法を組み合わせることで,ガウスとガウスの混合モデルを様々な学習画像圧縮法で優れることを示した。
論文 参考訳(メタデータ) (2024-11-28T18:51:55Z) - Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Learning Mixtures of Gaussians Using Diffusion Models [9.118706387430883]
テレビエラーに対して$k$ Gaussiansの混合を学習するための新しいアルゴリズムを提案する。
我々のアプローチは解析的であり、拡散モデルの枠組みに依存している。
論文 参考訳(メタデータ) (2024-04-29T17:00:20Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。