論文の概要: Generalization for slowly mixing processes
- arxiv url: http://arxiv.org/abs/2305.00977v1
- Date: Fri, 28 Apr 2023 19:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 16:39:53.910187
- Title: Generalization for slowly mixing processes
- Title(参考訳): 緩やかな混合過程の一般化
- Authors: Andreas Maurer
- Abstract要約: 固定およびフィミキシングプロセスによって生成されるデータに対して、有界なユニフォームが与えられる。
緩やかな混合プロセスの場合、これは混合時間に乗法的に依存する結果よりもかなり有利である。
- 参考スコア(独自算出の注目度): 7.563864405505623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A bound uniform over various loss-classes is given for data generated by
stationary and phi-mixing processes, where the mixing time (the time needed to
obtain approximate independence) enters the sample complexity only in an
additive way. For slowly mixing processes this can be a considerable advantage
over results with multiplicative dependence on the mixing time. The admissible
loss-classes include functions with prescribed Lipschitz norms or smoothness
parameters. The bound can also be applied to be uniform over unconstrained
loss-classes, where it depends on local Lipschitz properties of the function on
the sample path.
- Abstract(参考訳): 固定的およびフィミキシングプロセスによって生成されるデータに対して、様々な損失クラス上の有界なユニフォームが与えられ、混合時間(近似独立を得るのに必要な時間)が加法的にのみサンプル複雑性に入る。
緩やかな混合プロセスの場合、これは混合時間に乗法的に依存する結果よりもかなり有利である。
許容損失クラスは、所定のリプシッツノルムあるいは滑らか度パラメータを持つ関数を含む。
境界は、サンプルパス上の関数の局所リプシッツの性質に依存する、制約のない損失クラスに対して均一に適用することもできる。
関連論文リスト
- Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Self-Tuning Hamiltonian Monte Carlo for Accelerated Sampling [12.163119957680802]
ハミルトニアンモンテカルロシミュレーションは、積分の時間ステップと積分の回数に大きく依存する。
このようなパラメータを自動的に調整する適応型汎用フレームワークを提案する。
損失と自己相関時間との良好な対応が確立できることを示す。
論文 参考訳(メタデータ) (2023-09-24T09:35:25Z) - Learning Globally Smooth Functions on Manifolds [94.22412028413102]
スムーズな関数の学習は、線形モデルやカーネルモデルなどの単純なケースを除いて、一般的に難しい。
本研究は,半無限制約学習と多様体正規化の技法を組み合わせることで,これらの障害を克服することを提案する。
軽度条件下では、この手法は解のリプシッツ定数を推定し、副生成物として大域的に滑らかな解を学ぶ。
論文 参考訳(メタデータ) (2022-10-01T15:45:35Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Forster Decomposition and Learning Halfspaces with Noise [60.691817861402676]
フォースター変換 (Forster transform) は、分布を優れた反集中特性を持つものに変換する演算である。
本稿では,Forster変換が存在し,効率よく計算できる少数の分布の解離混合として,任意の分布を効率的に分解可能であることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:00:59Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - The Connection between Discrete- and Continuous-Time Descriptions of
Gaussian Continuous Processes [60.35125735474386]
我々は、一貫した推定子をもたらす離散化が粗粒化下での不変性を持つことを示す。
この結果は、導関数再構成のための微分スキームと局所時間推論アプローチの組み合わせが、2次または高次微分方程式の時系列解析に役立たない理由を説明する。
論文 参考訳(メタデータ) (2021-01-16T17:11:02Z) - Universally Quantized Neural Compression [25.808505103655687]
本研究では,一様ノイズチャネルを普遍量子化を用いてテスト時に実装可能であることを示す。
これにより、完全に差別化可能な損失関数を維持しながら、トレーニングとテストフェーズのミスマッチを排除できます。
論文 参考訳(メタデータ) (2020-06-17T15:59:24Z) - Adaptive Sampling Distributed Stochastic Variance Reduced Gradient for
Heterogeneous Distributed Datasets [14.945821529085896]
本稿では,コミュニケーション効率に着目した固有関数の平均最小化のための分散最適化アルゴリズムについて検討する。
本稿では,これらの設定に特化して機能するマシンの,新しい強調型サンプリングを提案する。
この手法により, 最大リプシッツ定数から機械間におけるリプシッツ定数の強調への収束率の依存性が向上することを示す。
論文 参考訳(メタデータ) (2020-02-20T01:55:52Z) - Distributed, partially collapsed MCMC for Bayesian Nonparametrics [68.5279360794418]
ディリクレ法やベータ・ベルヌーリ法のようなモデルでよく用いられる完全無作為測度は独立な部分測度に分解可能であるという事実を利用する。
この分解を用いて、潜在測度を、インスタンス化された成分のみを含む有限測度と、他のすべての成分を含む無限測度に分割する。
得られたハイブリッドアルゴリズムは、収束保証を犠牲にすることなくスケーラブルな推論を可能にすることができる。
論文 参考訳(メタデータ) (2020-01-15T23:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。