論文の概要: Tail-Aware Data Augmentation for Long-Tail Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.10933v1
- Date: Fri, 16 Jan 2026 01:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.326012
- Title: Tail-Aware Data Augmentation for Long-Tail Sequential Recommendation
- Title(参考訳): ロングテールシーケンス推薦のためのタイル・アウェア・データ拡張
- Authors: Yizhou Dang, Zhifu Wei, Minhan Huang, Lianbo Ma, Jianzhe Zhao, Guibing Guo, Xingwei Wang,
- Abstract要約: 逐次レコメンデーション(SR)は、過去のインタラクションシーケンスに基づいてユーザの好みを学習し、パーソナライズされた提案を提供する。
本稿では,TADA(Tail-Aware Data Augmentation)を提案する。
- 参考スコア(独自算出の注目度): 25.19179606094266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sequential recommendation (SR) learns user preferences based on their historical interaction sequences and provides personalized suggestions. In real-world scenarios, most users can only interact with a handful of items, while the majority of items are seldom consumed. This pervasive long-tail challenge limits the model's ability to learn user preferences. Despite previous efforts to enrich tail items/users with knowledge from head parts or improve tail learning through additional contextual information, they still face the following issues: 1) They struggle to improve the situation where interactions of tail users/items are scarce, leading to incomplete preferences learning for the tail parts. 2) Existing methods often degrade overall or head parts performance when improving accuracy for tail users/items, thereby harming the user experience. We propose Tail-Aware Data Augmentation (TADA) for long-tail sequential recommendation, which enhances the interaction frequency for tail items/users while maintaining head performance, thereby promoting the model's learning capabilities for the tail. Specifically, we first capture the co-occurrence and correlation among low-popularity items by a linear model. Building upon this, we design two tail-aware augmentation operators, T-Substitute and T-Insert. The former replaces the head item with a relevant item, while the latter utilizes co-occurrence relationships to extend the original sequence by incorporating both head and tail items. The augmented and original sequences are mixed at the representation level to preserve preference knowledge. We further extend the mix operation across different tail-user sequences and augmented sequences to generate richer augmented samples, thereby improving tail performance. Comprehensive experiments demonstrate the superiority of our method. The codes are provided at https://github.com/KingGugu/TADA.
- Abstract(参考訳): 逐次レコメンデーション(SR)は、過去のインタラクションシーケンスに基づいてユーザの好みを学習し、パーソナライズされた提案を提供する。
現実のシナリオでは、ほとんどのユーザーは少数のアイテムしか操作できないが、ほとんどのアイテムは滅多に消費されない。
この広範囲にわたるロングテールチャレンジは、モデルのユーザの好みを学習する能力を制限します。
前回の取り組みでは、頭の部分からの知識でテールアイテムやユーザを豊かにしたり、追加の文脈情報を通じてテールラーニングを改善するという試みがあったが、それでも次のような問題に直面している。
1) テールユーザとイテムの相互作用が乏しい状況の改善に苦慮し, テール部分の学習が不完全となる。
2) 既存手法は, テールユーザ・イテムの精度向上にともなって, 全体の劣化やヘッド部性能が低下し, ユーザエクスペリエンスが損なわれることがある。
本稿では,長期的レコメンデーションのためのTail-Aware Data Augmentation (TADA)を提案する。
具体的には、まず、線形モデルにより、低人気項目間の共起と相関を捉える。
そこで我々はT-SubstituteとT-Insertという2つのテールアウェア拡張演算子を設計した。
前者は、ヘッドアイテムを関連アイテムに置き換え、後者は、共起関係を利用して、ヘッドアイテムとテールアイテムの両方を組み込むことで、元のシーケンスを拡張する。
強調および原文配列は、好みの知識を保持するために表現レベルで混合される。
さらに、異なるテールユーザシーケンスと拡張シーケンスにまたがるミックス操作を拡張して、よりリッチな強化サンプルを生成することにより、テール性能を向上させる。
総合的な実験により,本手法の優位性を実証した。
コードはhttps://github.com/KingGugu/TADAで提供されている。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - Feature Fusion from Head to Tail for Long-Tailed Visual Recognition [39.86973663532936]
テールクラスにおけるセマンティック情報の不十分に起因するバイアスのある決定境界は、認識精度の低下に寄与する重要な要因の1つである。
我々は,H2T(head-to-tail fusion)と呼ばれるヘッドクラスから多様な意味情報を移植することで,テールクラスを増強することを提案する。
理論的解析と実用実験の両方で、H2Tが決定境界に対してより最適化された解に寄与できることが示されている。
論文 参考訳(メタデータ) (2023-06-12T08:50:46Z) - Personalizing Intervened Network for Long-tailed Sequential User
Behavior Modeling [66.02953670238647]
タイルユーザーは、共同トレーニング後のヘッドユーザーよりも大幅に品質の低いレコメンデーションに悩まされる。
テールユーザーで個別に訓練されたモデルは、限られたデータのために依然として劣った結果が得られる。
本稿では,テールユーザの推薦性能を大幅に向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-19T02:50:19Z) - Dual-branch Hybrid Learning Network for Unbiased Scene Graph Generation [87.13847750383778]
シーングラフ生成のための頭部述語と尾部述語の両方を扱うDual-branch Hybrid Learning Network (DHL)を提案する。
提案手法は,VGおよびGQAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-16T11:53:50Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。