論文の概要: Data Augmentation Strategies for Improving Sequential Recommender
Systems
- arxiv url: http://arxiv.org/abs/2203.14037v1
- Date: Sat, 26 Mar 2022 09:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:23:38.484821
- Title: Data Augmentation Strategies for Improving Sequential Recommender
Systems
- Title(参考訳): 逐次レコメンデーションシステム改善のためのデータ拡張戦略
- Authors: Joo-yeong Song, Bongwon Suh
- Abstract要約: 逐次リコメンデータシステムは近年,深層学習(DL)に基づく手法の活用により,大幅な性能向上を実現している。
本稿では,データ拡張戦略のセットを提案する。これらすべては,元の項目列を直接汚職の方法で変換するものである。
最新のDLベースのモデルの実験では、データ拡張の適用がモデルをより一般化するのに役立ちます。
- 参考スコア(独自算出の注目度): 7.986899327513767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommender systems have recently achieved significant performance
improvements with the exploitation of deep learning (DL) based methods.
However, although various DL-based methods have been introduced, most of them
only focus on the transformations of network structure, neglecting the
importance of other influential factors including data augmentation. Obviously,
DL-based models require a large amount of training data in order to estimate
parameters well and achieve high performances, which leads to the early efforts
to increase the training data through data augmentation in computer vision and
speech domains. In this paper, we seek to figure out that various data
augmentation strategies can improve the performance of sequential recommender
systems, especially when the training dataset is not large enough. To this end,
we propose a simple set of data augmentation strategies, all of which transform
original item sequences in the way of direct corruption and describe how data
augmentation changes the performance. Extensive experiments on the latest
DL-based model show that applying data augmentation can help the model
generalize better, and it can be significantly effective to boost model
performances especially when the amount of training data is small. Furthermore,
it is shown that our proposed strategies can improve performances to a better
or competitive level to existing strategies suggested in the prior works.
- Abstract(参考訳): 逐次リコメンデータシステムは近年,深層学習(DL)に基づく手法の活用により,大幅な性能向上を実現している。
しかし、様々なDLベースの手法が導入されたが、そのほとんどはネットワーク構造の変化にのみ焦点をあて、データ拡張を含む他の影響要因の重要性を無視している。
明らかにdlベースのモデルは、パラメータをよく推定し、高いパフォーマンスを達成するために、大量のトレーニングデータを必要とするため、コンピュータビジョンと音声ドメインのデータ拡張を通じてトレーニングデータを増やすための初期的取り組みに繋がる。
本稿では,トレーニングデータセットが十分に大きくない場合に,各種データ拡張戦略がシーケンシャルレコメンデータシステムの性能を向上させることを明らかにする。
この目的のために,データ拡張戦略の簡易セットを提案する。これらすべてにおいて,データ拡張がパフォーマンスにどのような影響を与えるかを記述し,直接腐敗の方法で元の項目列を変換する。
最新のDLベースモデルに対する大規模な実験により、データ拡張の適用はモデルの一般化に役立つことが示され、特にトレーニングデータの量が少ない場合には、モデルの性能を高めるのに非常に効果的である。
さらに,提案手法は,先行研究で提案した既存戦略よりも,性能を向上し,競争力も向上できることを示した。
関連論文リスト
- Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - Incorporating Supervised Domain Generalization into Data Augmentation [4.14360329494344]
本稿では,データ拡張の堅牢性と訓練効率を向上させるために,コントラッシブ・セマンティック・アライメント(CSA)ロス法を提案する。
CIFAR-100とCUBデータセットの実験により、提案手法は典型的なデータ拡張の堅牢性とトレーニング効率を向上させることが示された。
論文 参考訳(メタデータ) (2023-10-02T09:20:12Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - Data Augmentation for Opcode Sequence Based Malware Detection [2.335152769484957]
固定変換を用いた基本手法からデータ拡張の異なる手法について検討し、データに適応する手法に移行する。
ネットワーク内のOpcode埋め込み層とそれに対応するOpcode埋め込み行列を用いた新しいデータ拡張手法を提案する。
我々の知る限りでは、オプコードシーケンスに基づくマルウェア分類に適用される様々な拡張手法を体系的に研究する最初の論文である。
論文 参考訳(メタデータ) (2021-06-22T14:36:35Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Adaptive Weighting Scheme for Automatic Time-Series Data Augmentation [79.47771259100674]
データ拡張のための2つのサンプル適応自動重み付けスキームを提案する。
提案手法を大規模でノイズの多い財務データセットとUCRアーカイブからの時系列データセット上で検証する。
金融データセットでは、取引戦略と組み合わせた手法が50 $%$以上の年間収益の改善につながることを示し、時系列データでは、データセットの半分以上で最新モデルを上回るパフォーマンスを発揮し、他のものと同様の精度を達成しています。
論文 参考訳(メタデータ) (2021-02-16T17:50:51Z) - Generalization in Reinforcement Learning by Soft Data Augmentation [11.752595047069505]
SODA(Soft Data Augmentation)は、政策学習からAugmentationを分離する手法である。
我々は、最先端のビジョンベースRL法によるトレーニングにおいて、サンプル効率、一般化、安定性を著しく向上するSODAを見出した。
論文 参考訳(メタデータ) (2020-11-26T17:00:34Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。