論文の概要: Sample-Optimal and Efficient Learning of Tree Ising models
- arxiv url: http://arxiv.org/abs/2010.14864v2
- Date: Sun, 29 Nov 2020 22:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 05:10:50.191605
- Title: Sample-Optimal and Efficient Learning of Tree Ising models
- Title(参考訳): 樹木イジングモデルのサンプル最適かつ効率的な学習
- Authors: Constantinos Daskalakis and Qinxuan Pan
- Abstract要約: 最適な$O(n ln n/epsilon2)$サンプルから,$n$-variable tree-structured Isingモデルが全変動距離$epsilon$の範囲内で計算効率良く学習可能であることを示す。
我々の保証は、Chow-Liuアルゴリズムの既知の結果に従わない。
- 参考スコア(独自算出の注目度): 24.201827888085944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that $n$-variable tree-structured Ising models can be learned
computationally-efficiently to within total variation distance $\epsilon$ from
an optimal $O(n \ln n/\epsilon^2)$ samples, where $O(\cdot)$ hides an absolute
constant which, importantly, does not depend on the model being learned -
neither its tree nor the magnitude of its edge strengths, on which we place no
assumptions. Our guarantees hold, in fact, for the celebrated Chow-Liu [1968]
algorithm, using the plug-in estimator for estimating mutual information. While
this (or any other) algorithm may fail to identify the structure of the
underlying model correctly from a finite sample, we show that it will still
learn a tree-structured model that is $\epsilon$-close to the true one in total
variation distance, a guarantee called "proper learning."
Our guarantees do not follow from known results for the Chow-Liu algorithm
and the ensuing literature on learning graphical models, including a recent
renaissance of algorithms on this learning challenge, which only yield
asymptotic consistency results, or sample-inefficient and/or time-inefficient
algorithms, unless further assumptions are placed on the graphical model, such
as bounds on the "strengths" of the model's edges/hyperedges. While we
establish guarantees for a widely known and simple algorithm, the analysis that
this algorithm succeeds and is sample-optimal is quite complex, requiring a
hierarchical classification of the edges into layers with different
reconstruction guarantees, depending on their strength, combined with delicate
uses of the subadditivity of the squared Hellinger distance over graphical
models to control the error accumulation.
- Abstract(参考訳): n$-variable tree-structured ising model は、全変動距離で計算効率良く学習できる。 $\epsilon$ 最適な $o(n \ln n/\epsilon^2)$ サンプルから、$o(\cdot)$ が絶対定数を隠す。
我々の保証は、実のところ、Chow-Liu [1968]アルゴリズムに対して、相互情報を推定するためのプラグイン推定器を用いて成り立っている。
While this (or any other) algorithm may fail to identify the structure of the underlying model correctly from a finite sample, we show that it will still learn a tree-structured model that is $\epsilon$-close to the true one in total variation distance, a guarantee called "proper learning." Our guarantees do not follow from known results for the Chow-Liu algorithm and the ensuing literature on learning graphical models, including a recent renaissance of algorithms on this learning challenge, which only yield asymptotic consistency results, or sample-inefficient and/or time-inefficient algorithms, unless further assumptions are placed on the graphical model, such as bounds on the "strengths" of the model's edges/hyperedges.
我々は広く知られた単純なアルゴリズムの保証を確立する一方で、このアルゴリズムが成功し、サンプル最適化であるという分析は非常に複雑であり、その強さによって異なる再構成保証層にエッジを階層的に分類する必要がある。
関連論文リスト
- Integer Programming for Learning Directed Acyclic Graphs from Non-identifiable Gaussian Models [6.54203362045253]
本研究では,連続観測データから有向非巡回グラフを学習する問題について検討する。
中規模の問題を学習するための混合整数プログラミングフレームワークを開発した。
提案手法は最先端のアルゴリズムより優れ,ノイズの不均一性に対して頑健である。
論文 参考訳(メタデータ) (2024-04-19T02:42:13Z) - Learning bounded-degree polytrees with known skeleton [15.137372516678143]
有界次数ポリツリーの効率的な適切な学習のための有限サンプル保証を確立する。
基礎となる無向グラフが知られているとき、d$-polytreesを時間で学習し、任意の有界$d$のサンプル複雑性を学習する効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-10-10T06:03:51Z) - Active-LATHE: An Active Learning Algorithm for Boosting the Error
Exponent for Learning Homogeneous Ising Trees [75.93186954061943]
我々は、$rho$が少なくとも0.8$である場合に、エラー指数を少なくとも40%向上させるアルゴリズムを設計し、分析する。
我々の分析は、グラフの一部により多くのデータを割り当てるために、微小だが検出可能なサンプルの統計的変動を巧みに活用することに基づいている。
論文 参考訳(メタデータ) (2021-10-27T10:45:21Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Adapting to Misspecification in Contextual Bandits [82.55565343668246]
我々は、$varepsilon$-misspecified contextual banditsに対して、新しいオラクル効率アルゴリズム群を導入する。
我々は、未知の不特定値に対して最適な$O(dsqrtT + varepsilonsqrtdT)$ regret boundを達成する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2021-07-12T21:30:41Z) - Chow-Liu++: Optimal Prediction-Centric Learning of Tree Ising Models [30.62276301751904]
我々は、Chow-Liuアルゴリズムの要素とツリーメートル法を組み合わせた新しいアルゴリズムを提案する。
我々のアルゴリズムは不特定性や敵の腐敗をモデル化するのに堅牢である。
論文 参考訳(メタデータ) (2021-06-07T21:09:29Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。