論文の概要: Mixture of Online and Offline Experts for Non-stationary Time Series
- arxiv url: http://arxiv.org/abs/2202.05996v2
- Date: Wed, 11 Dec 2024 07:32:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 13:58:55.973940
- Title: Mixture of Online and Offline Experts for Non-stationary Time Series
- Title(参考訳): 非定常時間におけるオンラインとオフラインのエキスパートの混在
- Authors: Zhilin Zhao, Longbing Cao, Yuanyu Wan,
- Abstract要約: 非定常時系列に対するMOOE(Mixture of Online and Offline Experts)を提案する。
MOOEはオフライン間隔から静的オフラインの専門家を学び、現在のオンライン間隔で動的オンラインエキスパートを維持する。
具体的には、アルゴリズムの有効性を証明するために、理論解析、パラメータ収束の導出、後悔境界、一般化誤差境界に焦点をあてる。
- 参考スコア(独自算出の注目度): 39.443584213787
- License:
- Abstract: We consider a general and realistic scenario involving non-stationary time series, consisting of several offline intervals with different distributions within a fixed offline time horizon, and an online interval that continuously receives new samples. For non-stationary time series, the data distribution in the current online interval may have appeared in previous offline intervals. We theoretically explore the feasibility of applying knowledge from offline intervals to the current online interval. To this end, we propose the Mixture of Online and Offline Experts (MOOE). MOOE learns static offline experts from offline intervals and maintains a dynamic online expert for the current online interval. It then adaptively combines the offline and online experts using a meta expert to make predictions for the samples received in the online interval. Specifically, we focus on theoretical analysis, deriving parameter convergence, regret bounds, and generalization error bounds to prove the effectiveness of the algorithm.
- Abstract(参考訳): 我々は、固定されたオフライン時間水平線内で異なる分布を持つ複数のオフライン区間と、新しいサンプルを継続的に受信するオンライン区間からなる、静止しない時系列を包含する一般的な現実的なシナリオを考える。
静止しない時系列の場合、現在のオンライン区間のデータ分布は以前のオフライン区間に現れた可能性がある。
オフライン区間から現在のオンライン区間への知識適用の可能性について理論的に検討する。
そこで我々はMOOE(Mixture of Online and Offline Experts)を提案する。
MOOEはオフライン間隔から静的オフラインの専門家を学び、現在のオンライン間隔で動的オンラインエキスパートを維持する。
そして、オフラインとオンラインの専門家をメタエキスパートを使って適応的に組み合わせ、オンラインインターバルで受信したサンプルの予測を行う。
具体的には、アルゴリズムの有効性を証明するために、理論解析、パラメータ収束の導出、後悔境界、一般化誤差境界に焦点をあてる。
関連論文リスト
- Mixture of Efficient Diffusion Experts Through Automatic Interval and Sub-Network Selection [63.96018203905272]
本稿では, 事前学習した拡散モデルを用いて, 効率の良い専門家の混入を図り, サンプリングコストを削減することを提案する。
提案手法であるDiffPruningの有効性を,複数のデータセットで示す。
論文 参考訳(メタデータ) (2024-09-23T21:27:26Z) - Generalization bounds for mixing processes via delayed online-to-PAC conversions [9.763215134790478]
統計的学習アルゴリズムの一般化誤差を非i.d.設定で検討する。
我々は,遅延フィードバックによるオンライン学習の削減に基づく,このシナリオの分析フレームワークを開発した。
論文 参考訳(メタデータ) (2024-06-18T13:31:15Z) - A note on continuous-time online learning [13.796981813494199]
オンライン学習では、データは逐次順序で提供され、学習者の目標は、全体的な後悔を最小限に抑えるためにオンライン決定を行うことである。
このノートは、オンライン線形最適化、逆線形バンドイット、逆線形バンドイットといった、オンライン学習問題に対する連続時間モデルとアルゴリズムに関するものである。
論文 参考訳(メタデータ) (2024-05-16T18:58:19Z) - ENOTO: Improving Offline-to-Online Reinforcement Learning with Q-Ensembles [52.34951901588738]
我々はENsemble-based Offline-To-Online (ENOTO) RLという新しいフレームワークを提案する。
Q-networksの数を増やすことで、オフラインの事前トレーニングとオンラインの微調整を、パフォーマンスを低下させることなくシームレスに橋渡しします。
実験により,ENOTOは既存のオフラインRL手法のトレーニング安定性,学習効率,最終性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-06-12T05:10:10Z) - Reward-agnostic Fine-tuning: Provable Statistical Benefits of Hybrid
Reinforcement Learning [66.43003402281659]
オンラインデータ収集を効率的に活用してオフラインデータセットを強化し補完する方法に、中心的な疑問が浮かび上がっている。
我々は、純粋なオフラインRLと純粋なオンラインRLという、両方の世界のベストを打ち負かす3段階のハイブリッドRLアルゴリズムを設計する。
提案アルゴリズムは,データ収集時に報酬情報を必要としない。
論文 参考訳(メタデータ) (2023-05-17T15:17:23Z) - Improved Online Conformal Prediction via Strongly Adaptive Online
Learning [86.4346936885507]
我々は、強い適応的後悔を最小限に抑える新しいオンライン共形予測手法を開発した。
提案手法は,すべての区間において,ほぼ最適に適応的な後悔を同時に達成できることを実証する。
実験により,本手法は実世界のタスクにおける既存の手法よりも,より優れたカバレッジと予測セットが得られることがわかった。
論文 参考訳(メタデータ) (2023-02-15T18:59:30Z) - Continuous Prediction with Experts' Advice [10.98975673892221]
専門家のアドバイスによる予測は、オンライン学習における最も基本的な問題の1つである。
近年の研究では、微分方程式のレンズと連続時間解析によるオンライン学習が研究されている。
論文 参考訳(メタデータ) (2022-06-01T05:09:20Z) - Anomaly Detection on IT Operation Series via Online Matrix Profile [2.0539994999823334]
時系列における異常検出は、ITシステムのキーパフォーマンス指標(KPI)を監視するための基本的なタスクである。
本稿では,トレーニングを必要としないオンライン行列プロファイルを提案し,この問題に対処する。
異常は、現在に最も近い過去のサブシーケンスを参照することによって検出される。
論文 参考訳(メタデータ) (2021-08-27T02:40:37Z) - OPAL: Offline Primitive Discovery for Accelerating Offline Reinforcement
Learning [107.6943868812716]
エージェントは大量のオフライン体験データにアクセスでき、オンライン環境へのアクセスは極めて限られている。
我々の主な洞察は、様々な行動からなるオフラインデータを提示すると、このデータを活用する効果的な方法は、反復的かつ時間的に拡張された原始的行動の連続的な空間を抽出することである。
オフラインポリシ最適化のメリットに加えて,このようなオフラインプリミティブ学習の実施も,数発の模倣学習の改善に有効であることを示す。
論文 参考訳(メタデータ) (2020-10-26T14:31:08Z) - Centralized and distributed online learning for sparse time-varying
optimization [2.7006549420999937]
時間変化システムを追跡するオンラインアルゴリズムの開発は、ここ数年で多くの注目を集めている。
本稿では,特定のモデルを採用しないオンライン学習手法を提案する。
具体的には、集中型および分散型アルゴリズムを開発し、動的後悔の観点から理論的に解析する。
論文 参考訳(メタデータ) (2020-01-31T16:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。