論文の概要: Repeated Padding+: Simple yet Effective Data Augmentation Plugin for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2403.06372v3
- Date: Tue, 15 Jul 2025 02:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.656602
- Title: Repeated Padding+: Simple yet Effective Data Augmentation Plugin for Sequential Recommendation
- Title(参考訳): 繰り返しパディング+: シークエンシャルレコメンデーションのためのシンプルで効果的なデータ拡張プラグイン
- Authors: Yizhou Dang, Yuting Liu, Enneng Yang, Guibing Guo, Linying Jiang, Jianzhe Zhao, Xingwei Wang,
- Abstract要約: 繰り返しパディング+ (RepPad+) と呼ばれる簡易で効果的なパディング法を提案する。
本手法はトレーニング可能なパラメータやハイパーシーケンスを含まず,データ拡張操作をプラグアンドプレイで行う。
GRU4Recでは84.11%、SASRecでは35.34%である。
- 参考スコア(独自算出の注目度): 9.913317029557588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation aims to provide users with personalized suggestions based on their historical interactions. When training sequential models, padding is a widely adopted technique for two main reasons: 1) The vast majority of models can only handle fixed-length sequences; 2) Batching-based training needs to ensure that the sequences in each batch have the same length. The special value \emph{0} is usually used as the padding content, which does not contain the actual information and is ignored in the model calculations. This common-sense padding strategy leads us to a problem that has never been explored before: Can we fully utilize this idle input space by padding other content to further improve model performance and training efficiency? In this work, we propose a simple yet effective padding method called Repeated Padding+ (RepPad+). Specifically, we use the original interaction sequences as the padding content and fill it to the padding positions during model training. This operation can be performed a finite number of times or repeated until the input sequences' length reaches the maximum limit. For those sequences that can not pad full original data, we draw inspiration from the Sliding Windows strategy and intercept consecutive subsequences to fill in the idle space. Our RepPad+ can be viewed as a sequence-level data augmentation strategy. Unlike most existing works, our method contains no trainable parameters or hyperparameters and is a plug-and-play data augmentation operation. Extensive experiments on various categories of sequential models and seven real-world datasets demonstrate the effectiveness and efficiency of our approach. The average recommendation performance improvement is up to 84.11% on GRU4Rec and 35.34% on SASRec. We also provide in-depth analysis and explanation of what makes RepPad+ effective from multiple perspectives.
- Abstract(参考訳): シークエンシャルレコメンデーションは、歴史的相互作用に基づいたパーソナライズされた提案を提供することを目的としている。
シーケンシャルモデルをトレーニングする場合、パディングは2つの主な理由から広く採用されているテクニックである。
1) モデルの大部分は,固定長列のみを扱うことができる。
2)バッチベースのトレーニングは、各バッチのシーケンスが同じ長さであることを保証する必要がある。
通常、特別な値 \emph{0} は、実際の情報を含まないパディング内容として使われ、モデル計算では無視される。
この常識的なパディング戦略は、これまで検討されたことのない問題に繋がる: 他のコンテンツをパディングすることで、このアイドル入力空間を完全に活用して、モデルの性能とトレーニング効率をさらに向上できるだろうか?
本研究では,リピートパディング+ (RepPad+) と呼ばれる簡易で効果的なパディング法を提案する。
具体的には、元の相互作用シーケンスをパディング内容として使用し、モデルトレーニング中にパディング位置に充填する。
この操作は、入力シーケンスの長さが最大限に達するまで、有限回数または繰り返し行うことができる。
スライディングWindows戦略からインスピレーションを得て、アイドルスペースを埋めるために連続的なサブシーケンスをインターセプトする。
RepPad+はシーケンスレベルのデータ拡張戦略と見なすことができます。
既存のほとんどの研究とは異なり、本手法はトレーニング可能なパラメータやハイパーパラメータを含まず、プラグアンドプレイデータ拡張操作である。
逐次モデルと7つの実世界のデータセットの様々なカテゴリに関する大規模な実験は、我々のアプローチの有効性と効率を実証している。
GRU4Recでは84.11%、SASRecでは35.34%である。
また,複数の視点からRepPad+の有効性を詳細に分析し,解説する。
関連論文リスト
- Improving Continual Pre-training Through Seamless Data Packing [34.13195340154738]
本稿では,文脈情報をより効果的に保存し,モデル性能を向上させることを目的とした新しいデータパッキング戦略を提案する。
提案手法では,第1段階において連続列間の重なり合うトークンを同期するスライディングウインドウ手法を用いる。
第2段階では、短いテキストをターゲットのシーケンス長よりもわずかに大きいビンに詰め込むために、第1のFit-Decreasingアルゴリズムを採用し、パディングとトランケーションを最小化する。
論文 参考訳(メタデータ) (2025-05-28T06:30:37Z) - Augmenting Sequential Recommendation with Balanced Relevance and Diversity [17.542273338911553]
本稿では、関連性と多様性のバランスをとるデータを生成するために、BASRec(Balanced Data Augmentation for Sequential Recommendation)を提案する。
BASRecはSingle-Sequence AugmentationとCross-Sequence Augmentationの2つのモジュールで構成されている。
我々は,BASRecが既存の手法よりも妥当性と多様性のバランスのよいデータを生成することを示した。
論文 参考訳(メタデータ) (2024-12-11T11:29:15Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Sports-Traj: A Unified Trajectory Generation Model for Multi-Agent Movement in Sports [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを紹介する。
バスケットボールU,サッカーU,サッカーUの3つの実践的スポーツデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Single-Model and Any-Modality for Video Object Tracking [85.83753760853142]
任意のモダリティに対して単一のパラメータセットの統一トラッカーUn-Trackを導入する。
任意のモダリティを扱うために,低ランク因子化および再構成手法を用いて,それらの共通潜時空間を学習する。
我々のUn-Trackは、+6.6M(93M以上)のパラメータを持つ+2.14(21.50以上)のGFLOPを導入することで、DepthTrackデータセット上で、+8.1絶対Fスコアゲインを達成する。
論文 参考訳(メタデータ) (2023-11-27T14:17:41Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - UniPT: Universal Parallel Tuning for Transfer Learning with Efficient
Parameter and Memory [69.33445217944029]
PETLは、トレーニング済みモデルを下流ドメインに適応するための効果的な戦略である。
最近のPETLは、より価値の高いメモリ効率特性に焦点を当てている。
メモリ効率の良い新しいPETL戦略Universal Parallel Tuning (UniPT)を提案する。
論文 参考訳(メタデータ) (2023-08-28T05:38:43Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Uniform Sequence Better: Time Interval Aware Data Augmentation for
Sequential Recommendation [16.00020821220671]
シーケンシャルレコメンデーションは、アイテムのシーケンスに基づいてアクセスする次の項目を予測する重要なタスクである。
既存の作業の多くは、これらの2つの項目間の時間間隔を無視して、前の項目から次の項目への遷移パターンとして、ユーザの好みを学ぶ。
文献では研究されていない時間間隔の観点からシーケンスデータを拡張することを提案する。
論文 参考訳(メタデータ) (2022-12-16T03:13:43Z) - Cross-Modal Adapter for Text-Video Retrieval [91.9575196703281]
我々はパラメータ効率の良い微調整のための新しい$textbfCross-Modal Adapterを提示する。
アダプタベースの手法にインスパイアされ、いくつかのパラメータ化レイヤで事前訓練されたモデルを調整します。
MSR-VTT、MSVD、VATEX、ActivityNet、DiDeMoデータセットで完全に微調整されたメソッドと比較して、優れた、あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-17T16:15:30Z) - Pre-training helps Bayesian optimization too [49.28382118032923]
機能的事前設定のための代替的なプラクティスを模索する。
特に、より厳密な分布を事前訓練できるような、類似した関数のデータを持つシナリオを考察する。
提案手法は, 競合する手法の少なくとも3倍の効率で, 優れたハイパーパラメータを見つけることができることを示す。
論文 参考訳(メタデータ) (2022-07-07T04:42:54Z) - Sequence Adaptation via Reinforcement Learning in Recommender Systems [8.909115457491522]
そこで我々は,SARモデルを提案する。SARモデルは,ユーザとイテムの相互作用のシーケンス長をパーソナライズされた方法で調整する。
さらに,逐次レコメンデーションの精度を批評家ネットワークの予測累積報酬と整合させるために,共同損失関数を最適化する。
実世界の4つのデータセットに対する実験的な評価は,提案モデルがいくつかのベースラインアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T13:56:46Z) - Pretraining Representations for Data-Efficient Reinforcement Learning [12.43475487724972]
ラベルのないデータを使ってエンコーダを事前訓練し、少数のタスク固有のデータに基づいて微調整する。
Atariゲーム上でのインタラクションが100万段階に制限された場合、我々のアプローチは以前の作業を大幅に上回っている。
提案手法では,大規模モデルと組み合わせることで,より多様なタスク整合観測データが得られる。
論文 参考訳(メタデータ) (2021-06-09T04:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。