論文の概要: Exact Asymptotics for Learning Tree-Structured Graphical Models with
Side Information: Noiseless and Noisy Samples
- arxiv url: http://arxiv.org/abs/2005.04354v1
- Date: Sat, 9 May 2020 02:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 06:42:22.862652
- Title: Exact Asymptotics for Learning Tree-Structured Graphical Models with
Side Information: Noiseless and Noisy Samples
- Title(参考訳): 側方情報を用いた木構造図形モデル学習のための厳密な漸近:無雑音・雑音サンプル
- Authors: Anshoo Tandon and Vincent Y. F. Tan and Shiyao Zhu
- Abstract要約: 我々は、独立に描画されたサンプルからIsing木構造図形モデルを学習する精度を導出する。
サンプルがランダムノイズで観測されるシナリオにまで結果を拡張する。
以上の結果から, 試料径を数百倍に抑える実験結果と有意な一致を示した。
- 参考スコア(独自算出の注目度): 75.97774982432976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given side information that an Ising tree-structured graphical model is
homogeneous and has no external field, we derive the exact asymptotics of
learning its structure from independently drawn samples. Our results, which
leverage the use of probabilistic tools from the theory of strong large
deviations, refine the large deviation (error exponents) results of Tan,
Anandkumar, Tong, and Willsky [IEEE Trans. on Inform. Th., 57(3):1714--1735,
2011] and strictly improve those of Bresler and Karzand [Ann. Statist., 2020].
In addition, we extend our results to the scenario in which the samples are
observed in random noise. In this case, we show that they strictly improve on
the recent results of Nikolakakis, Kalogerias, and Sarwate [Proc. AISTATS,
1771--1782, 2019]. Our theoretical results demonstrate keen agreement with
experimental results for sample sizes as small as that in the hundreds.
- Abstract(参考訳): イジングツリー構造を持つグラフィカルモデルが均質であり、外部場を持たないという側面情報から、我々はその構造を独立に描画されたサンプルから学習する正確な漸近性を導出する。
Our results, which leverage the use of probabilistic tools from the theory of strong large deviations, refine the large deviation (error exponents) results of Tan, Anandkumar, Tong, and Willsky [IEEE Trans. on Inform. Th., 57(3):1714--1735, 2011] and strictly improve those of Bresler and Karzand [Ann. Statist., 2020]. In addition, we extend our results to the scenario in which the samples are observed in random noise. In this case, we show that they strictly improve on the recent results of Nikolakakis, Kalogerias, and Sarwate [Proc. AISTATS, 1771--1782, 2019].
以上の結果から, 試料径を数百倍に抑える実験結果と有意な一致を示した。
関連論文リスト
- Rethinking Benign Overfitting in Two-Layer Neural Networks [2.486161976966064]
我々は、クラス依存の異種ノイズを取り入れて特徴雑音データモデルを洗練し、ニューラルネットワークにおける過剰適合現象を再検討する。
ニューラルネットワークは、以前は有害と考えられていた「データノイズ」を利用して、長い尾を持つデータの分類精度を向上させる暗黙的な特徴を学習できることがわかった。
論文 参考訳(メタデータ) (2025-02-17T15:20:04Z) - Evaluating the design space of diffusion-based generative models [21.483299796597404]
この記事では、生成プロセス全体について、初めて定量的に理解する。
勾配降下下での復調スコアマッチングの非漸近収束解析を行う。
分散爆発モデルに対する精密サンプリング誤差解析も提供する。
論文 参考訳(メタデータ) (2024-06-18T17:56:10Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Decentralized Learning of Tree-Structured Gaussian Graphical Models from
Noisy Data [1.52292571922932]
本稿では,木構造ガウス図形モデル(GGM)の雑音データからの分散学習について検討する。
GGMは遺伝子制御ネットワークやソーシャルネットワークのような複雑なネットワークをモデル化するために広く利用されている。
提案した分散学習では,木構造GGMの推定にChow-Liuアルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-09-22T10:41:18Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Handling Missing Data in Decision Trees: A Probabilistic Approach [41.259097100704324]
確率論的アプローチを採り、決定木で欠落したデータを扱う問題に対処する。
我々は, トラクタブル密度推定器を用いて, モデルの「予測予測」を計算する。
学習時には「予測予測損失」を最小限に抑えて学習済みの樹木の微調整パラメーターを微調整する。
論文 参考訳(メタデータ) (2020-06-29T19:54:54Z) - Denoising Diffusion Probabilistic Models [91.94962645056896]
拡散確率モデルを用いて高品質な画像合成結果を示す。
本研究は,拡散確率モデルとランゲヴィン力学と整合したデノイングスコアとの新たな接続に基づいて設計した重み付き変分境界のトレーニングにより得られた。
論文 参考訳(メタデータ) (2020-06-19T17:24:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。