論文の概要: Learning from non-irreducible Markov chains
- arxiv url: http://arxiv.org/abs/2110.04338v1
- Date: Fri, 8 Oct 2021 19:00:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 10:42:04.061008
- Title: Learning from non-irreducible Markov chains
- Title(参考訳): 非既約マルコフ鎖からの学習
- Authors: Nikola Sandri\'c and Stjepan \v{S}ebek
- Abstract要約: トレーニングデータセットが必ずしも既約でないマルコフ連鎖から引き出された場合に焦点を当てる。
まず、対応するサンプルエラーに対する一様収束結果を求め、次いで、近似サンプルエラー最小化アルゴリズムの学習可能性について結論付ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Most of the existing literature on supervised learning problems focuses on
the case when the training data set is drawn from an i.i.d. sample. However,
many practical supervised learning problems are characterized by temporal
dependence and strong correlation between the marginals of the data-generating
process, suggesting that the i.i.d. assumption is not always justified. This
problem has been already considered in the context of Markov chains satisfying
the Doeblin condition. This condition, among other things, implies that the
chain is not singular in its behavior, i.e. it is irreducible. In this article,
we focus on the case when the training data set is drawn from a not necessarily
irreducible Markov chain. Under the assumption that the chain is uniformly
ergodic with respect to the $\mathrm{L}^1$-Wasserstein distance, and certain
regularity assumptions on the hypothesis class and the state space of the
chain, we first obtain a uniform convergence result for the corresponding
sample error, and then we conclude learnability of the approximate sample error
minimization algorithm and find its generalization bounds. At the end, a
relative uniform convergence result for the sample error is also discussed.
- Abstract(参考訳): 教師付き学習問題に関する既存の文献の多くは、トレーニングデータセットがi.d.サンプルから引き出された場合に焦点を当てている。
しかし、多くの実践的な教師付き学習問題は、時間的依存とデータ生成プロセスの限界間の強い相関が特徴であり、すなわち、仮定が必ずしも正当化されるとは限らないことを示唆している。
この問題は、既にドエブリン条件を満たすマルコフ連鎖の文脈で検討されている。
この条件は、特に、鎖がその振舞いにおいて特異なものではなく、すなわち既約であることを意味する。
本稿では、必ずしも既約ではないマルコフ連鎖からトレーニングデータセットが引き出された場合に焦点を当てる。
連鎖が$\mathrm{L}^1$-Wasserstein 距離に対して一様エルゴード的であり、仮説クラスと連鎖の状態空間上の一定の正則性仮定を仮定すると、まず対応するサンプル誤差に対する一様収束結果を求め、次に近似サンプル誤差最小化アルゴリズムの学習可能性を求め、その一般化境界を求める。
最後に、サンプル誤差に対する相対的な一様収束結果についても論じる。
関連論文リスト
- Non-Asymptotic Performance of Social Machine Learning Under Limited Data [51.053285698685364]
本研究では,社会機械学習フレームワークに関連付けられた誤りの確率について検討する。
このフレームワークは、ラベルのないデータのストリームを分散的に分類する問題に対処する。
論文 参考訳(メタデータ) (2023-06-15T17:42:14Z) - Probabilistic Learning of Multivariate Time Series with Temporal
Irregularity [25.91078012394032]
不均一な時間間隔やコンポーネントのミスアライメントを含む時間的不規則。
我々は,非ガウス的データ分布を非パラメトリック的に表現する条件フロー表現を開発する。
提案手法の広範な適用性と優位性は,実世界のデータセット上でのアブレーション研究とテストを通じて,既存のアプローチと比較することによって確認される。
論文 参考訳(メタデータ) (2023-06-15T14:08:48Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Covariate Shift in High-Dimensional Random Feature Regression [44.13449065077103]
共変量シフトは、堅牢な機械学習モデルの開発において重要な障害である。
現代の機械学習の文脈における理論的理解を示す。
論文 参考訳(メタデータ) (2021-11-16T05:23:28Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Robust Unsupervised Learning via L-Statistic Minimization [38.49191945141759]
教師なし学習に焦点をあて、この問題に対する一般的なアプローチを提示する。
重要な仮定は、摂動分布は、許容モデルの特定のクラスに対するより大きな損失によって特徴付けられることである。
教師なし学習におけるいくつかのポピュラーモデルに対する提案基準に関して,一様収束境界を証明した。
論文 参考訳(メタデータ) (2020-12-14T10:36:06Z) - Contrastive Divergence Learning is a Time Reversal Adversarial Game [32.46369991490501]
コントラスト分岐学習(Contrastive divergence learning, CD)は、非正規化統計モデルをデータサンプルに適合させる古典的な手法である。
判別器がモデルから生成したマルコフ連鎖が時間反転したかどうかを分類しようとする場合,CDは逆学習法であることを示す。
我々の導出は、CDの更新ステップが任意の固定目的関数の勾配として表現できないと結論づけた以前の観測とよく一致している。
論文 参考訳(メタデータ) (2020-12-06T15:54:05Z) - Estimating means of bounded random variables by betting [39.98103047898974]
本稿では、境界観測から未知の平均を推定する古典的な問題に対して、信頼区間(CI)と時間一様信頼シーケンス(CS)を導出する。
本稿では,Chernoff法を一般化し改良したものと考えられる濃度境界を導出する一般手法を提案する。
我々は、これらのアイデアを、置換せずにサンプリングに拡張する方法を示し、また、非常に研究された問題である。
論文 参考訳(メタデータ) (2020-10-19T17:22:03Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。