論文の概要: Adaptive prediction theory combining offline and online learning
- arxiv url: http://arxiv.org/abs/2512.00342v1
- Date: Sat, 29 Nov 2025 06:13:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.181331
- Title: Adaptive prediction theory combining offline and online learning
- Title(参考訳): オフライン学習とオンライン学習を組み合わせた適応予測理論
- Authors: Haizheng Li, Lei Guo,
- Abstract要約: 本稿では,オフラインとオンラインのアルゴリズムを組み合わせた2段階学習フレームワークの予測性能に関する理論的研究を開始する。
オフライン学習フェーズでは、近似非線形最小二乗推定のための一般化誤差の上限を確立する。
オンライン適応フェーズでは、オフライン学習モデルに基づいて、現実のターゲットシステムにおける不確実なパラメータドリフトの可能性に対処する。
- 参考スコア(独自算出の注目度): 1.8710229611640345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world intelligence systems usually operate by combining offline learning and online adaptation with highly correlated and non-stationary system data or signals, which, however, has rarely been investigated theoretically in the literature. This paper initiates a theoretical investigation on the prediction performance of a two-stage learning framework combining offline and online algorithms for a class of nonlinear stochastic dynamical systems. For the offline-learning phase, we establish an upper bound on the generalization error for approximate nonlinear-least-squares estimation under general datasets with strong correlation and distribution shift, leveraging the Kullback-Leibler divergence to quantify the distributional discrepancies. For the online-adaptation phase, we address, on the basis of the offline-trained model, the possible uncertain parameter drift in real-world target systems by proposing a meta-LMS prediction algorithm. This two-stage framework, integrating offline learning with online adaptation, demonstrates superior prediction performances compared with either purely offline or online methods. Both theoretical guarantees and empirical studies are provided.
- Abstract(参考訳): 実世界のインテリジェンスシステムは通常、オフライン学習とオンライン適応を高度に相関し、非定常的なシステムデータや信号と組み合わせて運用するが、理論的には研究されることは稀である。
本稿では,非線形確率力学系に対するオフラインとオンラインのアルゴリズムを組み合わせた2段階学習フレームワークの予測性能に関する理論的研究を開始する。
オフライン学習フェーズでは、強い相関と分布シフトを持つ一般データセットに基づく近似非線形最小二乗推定の一般化誤差の上限を確立し、Kulback-Leibler分散を利用して分布の相違を定量化する。
オンライン適応フェーズでは、オフライン学習モデルに基づいて、メタLMS予測アルゴリズムを提案することにより、現実のターゲットシステムにおける不確実なパラメータドリフトの可能性に対処する。
この2段階のフレームワークは、オフライン学習とオンライン適応を統合し、純粋にオフラインまたはオンラインの手法と比較して優れた予測性能を示す。
理論的保証と実証的研究の両方が提供される。
関連論文リスト
- Estimating Bidirectional Causal Effects with Large Scale Online Kernel Learning [1.0356094515229846]
提案手法は,大規模オンラインカーネル学習を伴う同時方程式モデルのための準最大確率推定器を統合する。
単一の方程式やスケーラブルなベースライン近似よりも精度と安定性が向上する。
提案手法は, ほぼ線形な計算スケーリングによる複雑な双方向因果効果を効果的に捉えていることを確認した。
論文 参考訳(メタデータ) (2025-11-07T07:44:06Z) - Behavior-Adaptive Q-Learning: A Unifying Framework for Offline-to-Online RL [3.2883573376133555]
本稿では,オフラインからオンラインRLへのスムーズな移行を可能にするフレームワークである行動適応型Q-Learning(BAQ)を紹介する。
BAQは、(i)不確実性が高い場合のオフライン行動に対してオンラインポリシーを整列させ、(ii)より確実なオンライン体験が蓄積されるにつれて、この制約を徐々に緩和する二重目的損失を包含する。
標準ベンチマーク全体を通じて、BAQは、オフラインからオフラインまでのRLアプローチを一貫して上回り、より高速なリカバリ、堅牢性の向上、全体的なパフォーマンスの向上を実現している。
論文 参考訳(メタデータ) (2025-11-05T18:20:23Z) - Uncertainty Guided Online Ensemble for Non-stationary Data Streams in Fusion Science [3.6886967341942785]
本稿では,トロイダルフィールドコイルの偏向予測のためのドリフトデータストリームへのオンライン学習の適用について述べる。
従来のオンライン学習は、予測を行う前に基礎的な真実が利用できないため、短期的なパフォーマンス劣化に悩まされる可能性がある。
本稿では,パフォーマンス向上のための不確実性誘導型オンラインアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2025-11-03T22:03:37Z) - Certified Neural Approximations of Nonlinear Dynamics [51.01318247729693]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Online-BLS: An Accurate and Efficient Online Broad Learning System for Data Stream Classification [52.251569042852815]
オンライン更新毎にクローズドフォームソリューションを備えたオンライン広範学習システムフレームワークを導入する。
我々は,効果的な重み推定アルゴリズムと効率的なオンライン更新戦略を設計する。
我々のフレームワークは、コンセプトドリフトを伴うデータストリームシナリオに自然に拡張され、最先端のベースラインを超えます。
論文 参考訳(メタデータ) (2025-01-28T13:21:59Z) - Online Distributional Regression [0.0]
大規模ストリーミングデータは、現代の機械学習アプリケーションで一般的である。
本稿では,正規化線形分布モデルのオンライン推定手法を提案する。
論文 参考訳(メタデータ) (2024-06-26T16:04:49Z) - Reward-agnostic Fine-tuning: Provable Statistical Benefits of Hybrid
Reinforcement Learning [66.43003402281659]
オンラインデータ収集を効率的に活用してオフラインデータセットを強化し補完する方法に、中心的な疑問が浮かび上がっている。
我々は、純粋なオフラインRLと純粋なオンラインRLという、両方の世界のベストを打ち負かす3段階のハイブリッドRLアルゴリズムを設計する。
提案アルゴリズムは,データ収集時に報酬情報を必要としない。
論文 参考訳(メタデータ) (2023-05-17T15:17:23Z) - Smoothed Online Learning for Prediction in Piecewise Affine Systems [43.64498536409903]
本稿では,最近開発されたスムーズなオンライン学習フレームワークに基づく。
これは、断片的なアフィン系における予測とシミュレーションのための最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-01-26T15:54:14Z) - Regularizing a Model-based Policy Stationary Distribution to Stabilize
Offline Reinforcement Learning [62.19209005400561]
オフライン強化学習(RL)は、古典的なRLアルゴリズムのパラダイムを拡張して、静的データセットから純粋に学習する。
オフラインRLの鍵となる課題は、オフラインデータの分布と学習されたポリシーの定常状態分布とのミスマッチによって引き起こされるポリシートレーニングの不安定性である。
政策最適化プロセス中にオフラインデータに対する現在の方針の定常分布を正規化する。
論文 参考訳(メタデータ) (2022-06-14T20:56:16Z) - Pessimistic Q-Learning for Offline Reinforcement Learning: Towards
Optimal Sample Complexity [51.476337785345436]
有限水平マルコフ決定過程の文脈におけるQ-ラーニングの悲観的変種について検討する。
ほぼ最適サンプル複雑性を実現するために,分散再現型悲観的Q-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T15:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。