論文の概要: Generalization bounds for mixing processes via delayed online-to-PAC conversions
- arxiv url: http://arxiv.org/abs/2406.12600v1
- Date: Tue, 18 Jun 2024 13:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 18:58:07.328402
- Title: Generalization bounds for mixing processes via delayed online-to-PAC conversions
- Title(参考訳): 遅延オンライン-PAC変換による混合過程の一般化境界
- Authors: Baptiste Abeles, Eugenio Clerico, Gergely Neu,
- Abstract要約: 統計的学習アルゴリズムの一般化誤差を非i.d.設定で検討する。
我々は,遅延フィードバックによるオンライン学習の削減に基づく,このシナリオの分析フレームワークを開発した。
- 参考スコア(独自算出の注目度): 9.763215134790478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the generalization error of statistical learning algorithms in a non-i.i.d. setting, where the training data is sampled from a stationary mixing process. We develop an analytic framework for this scenario based on a reduction to online learning with delayed feedback. In particular, we show that the existence of an online learning algorithm with bounded regret (against a fixed statistical learning algorithm in a specially constructed game of online learning with delayed feedback) implies low generalization error of said statistical learning method even if the data sequence is sampled from a mixing time series. The rates demonstrate a trade-off between the amount of delay in the online learning game and the degree of dependence between consecutive data points, with near-optimal rates recovered in a number of well-studied settings when the delay is tuned appropriately as a function of the mixing time of the process.
- Abstract(参考訳): 本研究では, 定常混合プロセスからトレーニングデータをサンプリングし, 統計的学習アルゴリズムの一般化誤差について検討する。
我々は,遅延フィードバックによるオンライン学習の削減に基づく,このシナリオの分析フレームワークを開発した。
特に,制約付き後悔を伴うオンライン学習アルゴリズムの存在は,データシーケンスが混合時系列からサンプリングされても,その統計的学習手法の一般化誤差が低いことを示す。
このレートは、オンライン学習ゲームにおける遅延の量と連続したデータポイント間の依存度とのトレードオフを示し、遅延がプロセスの混合時間の関数として適切に調整された場合に、多くのよく研究された設定でほぼ最適なレートを回復する。
関連論文リスト
- Structured Prediction in Online Learning [66.36004256710824]
オンライン学習環境における構造化予測のための理論的・アルゴリズム的枠組みについて検討する。
このアルゴリズムは教師付き学習環境からの最適アルゴリズムの一般化であることを示す。
本稿では,非定常データ分布,特に逆データを含む2番目のアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2024-06-18T07:45:02Z) - Online Distributed Learning with Quantized Finite-Time Coordination [0.4910937238451484]
私たちの設定では、エージェントのセットは、ストリーミングデータから学習モデルを協調的にトレーニングする必要があります。
本稿では,量子化された有限時間協調プロトコルに依存する分散アルゴリズムを提案する。
提案アルゴリズムの性能を,オンラインソリューションからの平均距離の観点から解析する。
論文 参考訳(メタデータ) (2023-07-13T08:36:15Z) - Online-to-PAC Conversions: Generalization Bounds via Regret Analysis [13.620177497267791]
私たちは「一般化ゲーム」と呼ばれるオンライン学習ゲームを構築します。
本ゲームにおけるオンライン学習アルゴリズムの存在は,統計的学習アルゴリズムの一般化誤差に制約があることを示唆する。
論文 参考訳(メタデータ) (2023-05-31T09:15:39Z) - OFedQIT: Communication-Efficient Online Federated Learning via
Quantization and Intermittent Transmission [7.6058140480517356]
オンライン連合学習(OFL)は、分散ストリーミングデータから非線形関数(またはモデル)のシーケンスを協調的に学習する、有望なフレームワークである。
本稿では、量子化と断続伝送を用いた通信効率の高いOFLアルゴリズム(OFedQIT)を提案する。
分析の結果,OfedQITは優れた学習精度を維持しつつ,OfedAvgの欠点に対処できることがわかった。
論文 参考訳(メタデータ) (2022-05-13T07:46:43Z) - Adaptive Client Sampling in Federated Learning via Online Learning with
Bandit Feedback [36.05851452151107]
統合学習(FL)システムは、トレーニングの各ラウンドに関与するクライアントのサブセットをサンプリングする必要があります。
その重要性にもかかわらず、クライアントを効果的にサンプリングする方法には制限がある。
提案手法は,最適化アルゴリズムの収束速度をいかに向上させるかを示す。
論文 参考訳(メタデータ) (2021-12-28T23:50:52Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - Online Bootstrap Inference For Policy Evaluation in Reinforcement
Learning [90.59143158534849]
近年の強化学習の出現は、頑健な統計的推論手法の需要を生み出している。
オンライン学習における統計的推論の既存の方法は、独立してサンプリングされた観察を含む設定に限られる。
オンラインブートストラップは線形近似アルゴリズムにおける統計的推測のための柔軟で効率的な手法であるが、マルコフノイズを含む設定における有効性はまだ検討されていない。
論文 参考訳(メタデータ) (2021-08-08T18:26:35Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Learning low-frequency temporal patterns for quantitative trading [0.0]
我々は、低周波の金融時系列データから信号を学習するための、モジュール化されたオンライン機械学習フレームワークの実現性を検討する。
このフレームワークは、JSEの株式市場から毎日サンプル化された時系列データに基づいて証明されている。
論文 参考訳(メタデータ) (2020-08-12T11:59:15Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。