論文の概要: Exact Asymptotics for Learning Tree-Structured Graphical Models with
Side Information: Noiseless and Noisy Samples
- arxiv url: http://arxiv.org/abs/2005.04354v1
- Date: Sat, 9 May 2020 02:42:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 06:42:22.862652
- Title: Exact Asymptotics for Learning Tree-Structured Graphical Models with
Side Information: Noiseless and Noisy Samples
- Title(参考訳): 側方情報を用いた木構造図形モデル学習のための厳密な漸近:無雑音・雑音サンプル
- Authors: Anshoo Tandon and Vincent Y. F. Tan and Shiyao Zhu
- Abstract要約: 我々は、独立に描画されたサンプルからIsing木構造図形モデルを学習する精度を導出する。
サンプルがランダムノイズで観測されるシナリオにまで結果を拡張する。
以上の結果から, 試料径を数百倍に抑える実験結果と有意な一致を示した。
- 参考スコア(独自算出の注目度): 75.97774982432976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given side information that an Ising tree-structured graphical model is
homogeneous and has no external field, we derive the exact asymptotics of
learning its structure from independently drawn samples. Our results, which
leverage the use of probabilistic tools from the theory of strong large
deviations, refine the large deviation (error exponents) results of Tan,
Anandkumar, Tong, and Willsky [IEEE Trans. on Inform. Th., 57(3):1714--1735,
2011] and strictly improve those of Bresler and Karzand [Ann. Statist., 2020].
In addition, we extend our results to the scenario in which the samples are
observed in random noise. In this case, we show that they strictly improve on
the recent results of Nikolakakis, Kalogerias, and Sarwate [Proc. AISTATS,
1771--1782, 2019]. Our theoretical results demonstrate keen agreement with
experimental results for sample sizes as small as that in the hundreds.
- Abstract(参考訳): イジングツリー構造を持つグラフィカルモデルが均質であり、外部場を持たないという側面情報から、我々はその構造を独立に描画されたサンプルから学習する正確な漸近性を導出する。
Our results, which leverage the use of probabilistic tools from the theory of strong large deviations, refine the large deviation (error exponents) results of Tan, Anandkumar, Tong, and Willsky [IEEE Trans. on Inform. Th., 57(3):1714--1735, 2011] and strictly improve those of Bresler and Karzand [Ann. Statist., 2020]. In addition, we extend our results to the scenario in which the samples are observed in random noise. In this case, we show that they strictly improve on the recent results of Nikolakakis, Kalogerias, and Sarwate [Proc. AISTATS, 1771--1782, 2019].
以上の結果から, 試料径を数百倍に抑える実験結果と有意な一致を示した。
関連論文リスト
- Evaluating the design space of diffusion-based generative models [21.483299796597404]
この記事では、生成プロセス全体について、初めて定量的に理解する。
勾配降下下での復調スコアマッチングの非漸近収束解析を行う。
分散爆発モデルに対する精密サンプリング誤差解析も提供する。
論文 参考訳(メタデータ) (2024-06-18T17:56:10Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Learning Causal Graphs via Monotone Triangular Transport Maps [1.6752182911522522]
最適輸送(OT)を用いたデータからの因果構造学習の問題点について検討する。
構造方程式やノイズ分布を仮定せずにマルコフ同値まで因果発見するアルゴリズムを提案する。
提案手法と人工と実世界の両方のデータセットにおける技術状況を比較した実験結果を提供する。
論文 参考訳(メタデータ) (2023-05-26T13:24:17Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Decentralized Learning of Tree-Structured Gaussian Graphical Models from
Noisy Data [1.52292571922932]
本稿では,木構造ガウス図形モデル(GGM)の雑音データからの分散学習について検討する。
GGMは遺伝子制御ネットワークやソーシャルネットワークのような複雑なネットワークをモデル化するために広く利用されている。
提案した分散学習では,木構造GGMの推定にChow-Liuアルゴリズムを用いる。
論文 参考訳(メタデータ) (2021-09-22T10:41:18Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Handling Missing Data in Decision Trees: A Probabilistic Approach [41.259097100704324]
確率論的アプローチを採り、決定木で欠落したデータを扱う問題に対処する。
我々は, トラクタブル密度推定器を用いて, モデルの「予測予測」を計算する。
学習時には「予測予測損失」を最小限に抑えて学習済みの樹木の微調整パラメーターを微調整する。
論文 参考訳(メタデータ) (2020-06-29T19:54:54Z) - Denoising Diffusion Probabilistic Models [91.94962645056896]
拡散確率モデルを用いて高品質な画像合成結果を示す。
本研究は,拡散確率モデルとランゲヴィン力学と整合したデノイングスコアとの新たな接続に基づいて設計した重み付き変分境界のトレーニングにより得られた。
論文 参考訳(メタデータ) (2020-06-19T17:24:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。