論文の概要: Rademacher learning rates for iterated random functions
- arxiv url: http://arxiv.org/abs/2506.13946v1
- Date: Mon, 16 Jun 2025 19:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.220355
- Title: Rademacher learning rates for iterated random functions
- Title(参考訳): 反復ランダム関数に対するラデマチャー学習率
- Authors: Nikola Sandrić,
- Abstract要約: トレーニングデータセットが、必ずしも既約あるいは非周期的でない反復ランダム関数によって生成される場合を考える。
支配関数が第一引数に関して収縮的であるという仮定の下で、まず、対応するサンプル誤差に対する一様収束結果を確立する。
次に、近似経験的リスク最小化アルゴリズムの学習可能性を示し、その学習速度を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing literature on supervised machine learning assumes that the training dataset is drawn from an i.i.d. sample. However, many real-world problems exhibit temporal dependence and strong correlations between the marginal distributions of the data-generating process, suggesting that the i.i.d. assumption is often unrealistic. In such cases, models naturally include time-series processes with mixing properties, as well as irreducible and aperiodic ergodic Markov chains. Moreover, the learning rates typically obtained in these settings are independent of the data distribution, which can lead to restrictive choices of hypothesis classes and suboptimal sample complexities for the learning algorithm. In this article, we consider the case where the training dataset is generated by an iterated random function (i.e., an iteratively defined time-homogeneous Markov chain) that is not necessarily irreducible or aperiodic. Under the assumption that the governing function is contractive with respect to its first argument and subject to certain regularity conditions on the hypothesis class, we first establish a uniform convergence result for the corresponding sample error. We then demonstrate the learnability of the approximate empirical risk minimization algorithm and derive its learning rate bound. Both rates are data-distribution dependent, expressed in terms of the Rademacher complexities of the underlying hypothesis class, allowing them to more accurately reflect the properties of the data-generating distribution.
- Abstract(参考訳): 教師付き機械学習に関する既存の文献の多くは、トレーニングデータセットはi.i.d.サンプルから引き出されると仮定している。
しかし、多くの実世界の問題は、データ生成過程の限界分布の間の時間的依存と強い相関を示し、すなわち、仮定がしばしば非現実的であることを示唆している。
そのような場合、モデルは自然に混合特性を持つ時系列プロセスと、既約および周期的エルゴード的マルコフ連鎖を含む。
さらに、これらの設定で得られる学習速度はデータ分布とは独立であり、学習アルゴリズムの仮説クラスと準最適サンプル複雑さの限定的な選択につながる可能性がある。
本稿では、学習データセットが反復ランダム関数(即ち、反復的に定義された時間同次マルコフ連鎖)によって生成される場合について考察する。
支配関数がその第一引数に対して収縮的であり、仮説クラス上の一定の規則性条件に従うという仮定の下で、まず、対応するサンプル誤差に対する一様収束結果を確立する。
次に、近似経験的リスク最小化アルゴリズムの学習可能性を示し、その学習速度を導出する。
どちらのレートもデータ分布に依存しており、基礎となる仮説クラスのラデマッハ複素量の観点から表され、データ生成分布の性質をより正確に反映することができる。
関連論文リスト
- Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
この設定では、一般化されたクロスバリデーション推定器(GCV)がサンプル外リスクを正確に予測できないことを示す。
さらに、テストポイントがトレーニングセットと非自明な相関を持つ場合、時系列予測でしばしば発生する設定にまで分析を拡張します。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Probabilistic Learning of Multivariate Time Series with Temporal Irregularity [21.361823581838355]
実世界の時系列はしばしば、一様間隔や不整合変数を含む時間的不規則に悩まされる。
本稿では,変数の連立分布を任意の連続点で捉えながら,時間的不規則性をモデル化するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-15T14:08:48Z) - Nonparametric Conditional Local Independence Testing [69.31200003384122]
条件付き局所独立は、連続的な時間プロセス間の独立関係である。
条件付き地域独立の非パラメトリックテストは行われていない。
二重機械学習に基づく非パラメトリックテストを提案する。
論文 参考訳(メタデータ) (2022-03-25T10:31:02Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z) - Learning from non-irreducible Markov chains [0.0]
トレーニングデータセットが必ずしも既約でないマルコフ連鎖から引き出された場合に焦点を当てる。
まず、対応するサンプルエラーに対する一様収束結果を求め、次いで、近似サンプルエラー最小化アルゴリズムの学習可能性について結論付ける。
論文 参考訳(メタデータ) (2021-10-08T19:00:19Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Understanding Double Descent Requires a Fine-Grained Bias-Variance
Decomposition [34.235007566913396]
ラベルに関連付けられた用語への分散の解釈可能で対称的な分解について述べる。
バイアスはネットワーク幅とともに単調に減少するが、分散項は非単調な振る舞いを示す。
我々はまた、著しく豊かな現象論も分析する。
論文 参考訳(メタデータ) (2020-11-04T21:04:02Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。