論文の概要: Exponential Reduction in Sample Complexity with Learning of Ising Model
Dynamics
- arxiv url: http://arxiv.org/abs/2104.00995v1
- Date: Fri, 2 Apr 2021 11:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:58:41.549765
- Title: Exponential Reduction in Sample Complexity with Learning of Ising Model
Dynamics
- Title(参考訳): イジングモデルダイナミクスの学習によるサンプル複雑性の指数関数的減少
- Authors: Arkopal Dutt, Andrey Y. Lokhov, Marc Vuffray, Sidhant Misra
- Abstract要約: 動的プロセスによって生成された相関サンプルからバイナリグラフィカルモデルを再構成する問題について検討する。
相互作用スクリーニングの目的と条件付き可能性損失に基づく2つの推定器のサンプル複雑性を解析した。
- 参考スコア(独自算出の注目度): 14.704630929165274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The usual setting for learning the structure and parameters of a graphical
model assumes the availability of independent samples produced from the
corresponding multivariate probability distribution. However, for many models
the mixing time of the respective Markov chain can be very large and i.i.d.
samples may not be obtained. We study the problem of reconstructing binary
graphical models from correlated samples produced by a dynamical process, which
is natural in many applications. We analyze the sample complexity of two
estimators that are based on the interaction screening objective and the
conditional likelihood loss. We observe that for samples coming from a
dynamical process far from equilibrium, the sample complexity reduces
exponentially compared to a dynamical process that mixes quickly.
- Abstract(参考訳): グラフィカルモデルの構造とパラメータを学習するための通常の設定は、対応する多変量確率分布から生成される独立したサンプルが利用可能であると仮定する。
しかし、多くのモデルにおいて、それぞれのマルコフ鎖の混合時間は非常に大きく、すなわちdである。
サンプルは得られない。
動的プロセスによって生成された相関サンプルからバイナリグラフィカルモデルを再構成する問題について検討する。
相互作用スクリーニング目標と条件付き可能性損失に基づく2つの推定器のサンプル複雑性を解析した。
平衡から遠く離れた力学過程から来るサンプルの場合、サンプルの複雑さは高速に混合する力学過程と比較して指数関数的に減少する。
関連論文リスト
- Unified Convergence Analysis for Score-Based Diffusion Models with Deterministic Samplers [49.1574468325115]
決定論的サンプリングのための統合収束分析フレームワークを提案する。
我々のフレームワークは$tilde O(d2/epsilon)$の反復複雑性を実現する。
また,Denoising Implicit Diffusion Models (DDIM) タイプのサンプルについて詳細な分析を行った。
論文 参考訳(メタデータ) (2024-10-18T07:37:36Z) - Provable Statistical Rates for Consistency Diffusion Models [87.28777947976573]
最先端の性能にもかかわらず、拡散モデルは、多くのステップが伴うため、遅いサンプル生成で知られている。
本稿では, 整合性モデルに関する最初の統計理論に寄与し, 分散不整合最小化問題としてトレーニングを定式化している。
論文 参考訳(メタデータ) (2024-06-23T20:34:18Z) - Ablation Based Counterfactuals [7.481286710933861]
ABC (Ablation Based Counterfactuals) は、モデル再訓練ではなくモデルアブレーションに依存する反ファクト解析を行う手法である。
拡散モデルの集合を用いてこのようなモデルを構築する方法を示す。
次に、このモデルを用いて、完全な対物的景観を列挙することで、トレーニングデータ属性の限界を研究する。
論文 参考訳(メタデータ) (2024-06-12T06:22:51Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Latent Dynamical Implicit Diffusion Processes [0.0]
潜在動的暗黙拡散過程(LDIDP)と呼ばれる新しい潜時変動モデルを提案する。
LDIDPは暗黙の拡散過程を利用して動的潜伏過程からサンプリングし、それに従って逐次観測サンプルを生成する。
我々は, LDIDP が潜在次元上の力学を正確に学習できることを実証した。
論文 参考訳(メタデータ) (2023-06-12T12:43:27Z) - Hard Sample Matters a Lot in Zero-Shot Quantization [52.32914196337281]
ゼロショット量子化(ZSQ)は、完全精度モデルのトレーニング用データがアクセスできない場合に、ディープニューラルネットワークの圧縮と加速を約束する。
ZSQでは、合成サンプルを用いてネットワーク量子化を行うため、量子化モデルの性能は合成サンプルの品質に大きく依存する。
この問題に対処するために,HArdサンプル合成訓練(HAST)を提案する。
論文 参考訳(メタデータ) (2023-03-24T06:22:57Z) - On the Sample Complexity of Vanilla Model-Based Offline Reinforcement
Learning with Dependent Samples [32.707730631343416]
オフライン強化学習(オフラインRL)は、以前に収集したサンプルのみを用いて学習を行う問題を考える。
モデルベースオフラインRLでは、学習者は経験的遷移に応じて構築されたモデルを用いて推定(または最適化)を行う。
本研究では,バニラモデルに基づくオフラインRLのサンプル複雑性を無限水平ディスカウント・リワード設定における依存サンプルを用いて解析する。
論文 参考訳(メタデータ) (2023-03-07T22:39:23Z) - Density-Based Dynamic Curriculum Learning for Intent Detection [14.653917644725427]
本モデルでは, 固有ベクトル密度に応じてサンプルの難易度を定義する。
様々な難易度のサンプルに注意を払う動的カリキュラム学習戦略を適用した。
3つのオープンデータセットの実験により、提案した密度に基づくアルゴリズムが、単純かつ複雑なサンプルを著しく区別できることが確認された。
論文 参考訳(メタデータ) (2021-08-24T12:29:26Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。