論文の概要: Future Gradient Descent for Adapting the Temporal Shifting Data
Distribution in Online Recommendation Systems
- arxiv url: http://arxiv.org/abs/2209.01143v1
- Date: Fri, 2 Sep 2022 15:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:01:37.096389
- Title: Future Gradient Descent for Adapting the Temporal Shifting Data
Distribution in Online Recommendation Systems
- Title(参考訳): オンラインレコメンデーションシステムにおける時間シフトデータ分布適応のための将来の勾配降下
- Authors: Mao Ye, Ruichen Jiang, Haoxiang Wang, Dhruv Choudhary, Xiaocong Du,
Bhargav Bhushanam, Aryan Mokhtari, Arun Kejariwal, Qiang Liu
- Abstract要約: トレーニング用データ分布の勾配情報を予測するメタ・フューチャー・グラデーション・ジェネレータを学習する。
Batch Updateと比較すると,提案アルゴリズムは時間領域の一般化誤差が小さいことを示唆している。
- 参考スコア(独自算出の注目度): 30.88268793277078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the key challenges of learning an online recommendation model is the
temporal domain shift, which causes the mismatch between the training and
testing data distribution and hence domain generalization error. To overcome,
we propose to learn a meta future gradient generator that forecasts the
gradient information of the future data distribution for training so that the
recommendation model can be trained as if we were able to look ahead at the
future of its deployment. Compared with Batch Update, a widely used paradigm,
our theory suggests that the proposed algorithm achieves smaller temporal
domain generalization error measured by a gradient variation term in a local
regret. We demonstrate the empirical advantage by comparing with various
representative baselines.
- Abstract(参考訳): オンラインレコメンデーションモデルを学ぶ際の重要な課題の1つは、トレーニングとテストデータの分散とドメインの一般化エラーのミスマッチを引き起こす時間的領域シフトである。
そこで本研究では,将来のデータ分布の勾配情報を予測するメタ未来勾配生成器を学習し,レコメンデーションモデルがデプロイメントの将来を見据えられるようにトレーニングすることを提案する。
提案手法は,広く用いられているパラダイムであるバッチ更新と比較して,局所的後悔における勾配変動項で測定した時間領域一般化誤差が小さいことを示唆する。
様々な代表的ベースラインと比較することにより,経験的優位性を示す。
関連論文リスト
- Future-Guided Learning: A Predictive Approach To Enhance Time-Series Forecasting [4.866362841501992]
本稿では、時系列イベント予測を強化するアプローチであるFuture-Guided Learningを紹介する。
提案手法は,重要な事象を特定するために将来的なデータを解析する検出モデルと,これらの事象を現在のデータに基づいて予測する予測モデルである。
予測モデルと検出モデルの間に不一致が発生した場合、予測モデルはより実質的な更新を行う。
論文 参考訳(メタデータ) (2024-10-19T21:22:55Z) - Pre-trained Recommender Systems: A Causal Debiasing Perspective [19.712997823535066]
本研究では,異なるドメインから抽出した汎用ユーザ・イテムインタラクションデータをトレーニングすることで,ユニバーサルインタラクションパターンをキャプチャする汎用レコメンデータを開発する。
実験により,提案モデルにより,ゼロショットと少数ショットの学習環境での推薦性能が大幅に向上する可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-30T03:37:32Z) - Learning Rate Schedules in the Presence of Distribution Shift [18.310336156637774]
我々は、変化するデータ分布の存在下で、後悔するネットワークが累積的に学習する学習スケジュールを設計する。
我々は, 高次元回帰モデルを用いて, 後悔モデルを増加させる実験を行った。
論文 参考訳(メタデータ) (2023-03-27T23:29:02Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Towards Out-of-Distribution Sequential Event Prediction: A Causal
Treatment [72.50906475214457]
シーケンシャルなイベント予測の目標は、一連の歴史的なイベントに基づいて次のイベントを見積もることである。
実際には、次のイベント予測モデルは、一度に収集されたシーケンシャルなデータで訓練される。
文脈固有の表現を学習するための階層的な分岐構造を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T07:54:13Z) - A Multi-stage Framework with Mean Subspace Computation and Recursive
Feedback for Online Unsupervised Domain Adaptation [9.109788577327503]
本稿では,対象データがラベル付けされず,オンラインに連続してバッチで到着した場合に,現実の状況を解決するための新しいフレームワークを提案する。
提案手法では,ソースとターゲットドメインから共通部分空間にデータを投影し,投影したデータをリアルタイムに操作する手法を提案する。
提案フレームワークにおける各ステージの効果と寄与を詳細に調査するため,6つのデータセットの実験を行った。
論文 参考訳(メタデータ) (2022-06-24T03:50:34Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - New Perspectives on the Use of Online Learning for Congestion Level
Prediction over Traffic Data [6.664111208927475]
本研究は時系列データによる分類に焦点を当てる。
非定常現象によって時系列が生成されると、予測されるクラスと系列に関連するパターンは時間とともに進化する。
オンライン学習方法は、時間とともに到着する新しいデータサンプルから漸進的に学習し、データストリームに沿った最終的な変更に対応する。
論文 参考訳(メタデータ) (2020-03-27T09:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。