論文の概要: Non-autoregressive Personalized Bundle Generation
- arxiv url: http://arxiv.org/abs/2406.06925v1
- Date: Tue, 11 Jun 2024 03:44:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 17:35:04.022203
- Title: Non-autoregressive Personalized Bundle Generation
- Title(参考訳): 非自己回帰型パーソナライズドバンドル生成
- Authors: Wenchuan Yang, Cheng Yang, Jichao Li, Yuejin Tan, Xin Lu, Chuan Shi,
- Abstract要約: 本稿では,非自己回帰機構によるバンドル生成と,BundleNATという新しいエンコーダデコーダフレームワークの設計を提案する。
本稿では,事前学習手法とグラフニューラルネットワークを用いて,ユーザの好みや項目ベースの互換性情報を完全に埋め込むことを提案する。
次に、所望のバンドルを直接ワンショットで出力できる置換同変復号アーキテクチャを設計する。
- 参考スコア(独自算出の注目度): 39.83349922956341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The personalized bundle generation problem, which aims to create a preferred bundle for user from numerous candidate items, receives increasing attention in recommendation. However, existing works ignore the order-invariant nature of the bundle and adopt sequential modeling methods as the solution, which might introduce inductive bias and cause a large latency in prediction. To address this problem, we propose to perform the bundle generation via non-autoregressive mechanism and design a novel encoder-decoder framework named BundleNAT, which can effectively output the targeted bundle in one-shot without relying on any inherent order. In detail, instead of learning sequential dependency, we propose to adopt pre-training techniques and graph neural network to fully embed user-based preference and item-based compatibility information, and use a self-attention based encoder to further extract global dependency pattern. We then design a permutation-equivariant decoding architecture that is able to directly output the desired bundle in a one-shot manner. Experiments on three real-world datasets from Youshu and Netease show the proposed BundleNAT significantly outperforms the current state-of-the-art methods in average by up to 35.92%, 10.97% and 23.67% absolute improvements in Precision, Precision+, and Recall, respectively.
- Abstract(参考訳): 多数の候補項目からユーザの好みのバンドルを作成することを目的としたパーソナライズされたバンドル生成問題は、推奨事項に注目が集まる。
しかし、既存の研究はバンドルの順序不変性を無視し、逐次モデリング手法をソリューションとして採用している。
そこで本研究では,非自己回帰機構を用いてバンドル生成を行い,BundleNATという新しいエンコーダ・デコーダ・フレームワークを設計する。
具体的には、逐次依存を学習する代わりに、ユーザの嗜好とアイテムベースの互換性情報を埋め込むために事前学習技術とグラフニューラルネットワークを採用し、自己注意に基づくエンコーダを用いてグローバル依存パターンを抽出することを提案する。
次に、所望のバンドルを直接ワンショットで出力できる置換同変復号アーキテクチャを設計する。
YoushuとNeteaseの3つの実世界のデータセットの実験では、提案された BundleNAT は、それぞれ精度、精度+、リコールの絶対的な改善を35.92%、平均で10.97%、23.67%で上回っている。
関連論文リスト
- Diffusion-based Contrastive Learning for Sequential Recommendation [6.3482831836623355]
本稿では,CaDiRecという,文脈対応拡散に基づく逐次推薦のためのコントラスト学習を提案する。
CaDiRecは、コンテキスト対応拡散モデルを使用して、シーケンス内の所定の位置に対する代替アイテムを生成する。
フレームワーク全体をエンドツーエンドでトレーニングし、拡散モデルとレコメンデーションモデルの間でアイテムの埋め込みを共有します。
論文 参考訳(メタデータ) (2024-05-15T14:20:37Z) - Fast Ensembling with Diffusion Schrödinger Bridge [17.334437293164566]
ディープ・アンサンブル(Deep Ensemble、DE)アプローチは、様々な初期点からニューラルネットワークを訓練し、様々な局所最適点に向かって収束させることにより、ディープ・ニューラルネットワークの性能を高めるための簡単な手法である。
本稿では,Diffusion Bridge Network (DBN) と呼ばれる新しい手法を提案する。
この軽量ニューラルネットワークDBNで重アンサンブルを置換することにより、CIFAR-10、CIFAR-100、TinyImageNetなどのベンチマークデータセットの精度と不確実性を維持しながら、計算コストを削減した推論を実現した。
論文 参考訳(メタデータ) (2024-04-24T11:35:02Z) - Random Aggregate Beamforming for Over-the-Air Federated Learning in Large-Scale Networks [66.18765335695414]
本稿では,アグリゲーションエラーを最小限に抑え,選択したデバイス数を最大化する目的で,共同装置の選択とアグリゲーションビームフォーミング設計について検討する。
コスト効率のよい方法でこの問題に取り組むために,ランダムな集合ビームフォーミング方式を提案する。
また, 得られた集計誤差と, デバイス数が大きい場合に選択したデバイス数についても解析を行った。
論文 参考訳(メタデータ) (2024-02-20T23:59:45Z) - Diffusion Augmentation for Sequential Recommendation [47.43402785097255]
本稿では,より高品質な生成のためのDiffuASR(Diffusion Augmentation for Sequential Recommendation)を提案する。
DiffuASRによる強化データセットは、複雑なトレーニング手順なしで、シーケンシャルレコメンデーションモデルを直接トレーニングするために使用することができる。
3つの逐次レコメンデーションモデルを用いた3つの実世界のデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-09-22T13:31:34Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Deep Model Reassembly [60.6531819328247]
我々はDeep Model Reassembly(DeRy)と呼ばれる新しい知識伝達タスクを探索する。
DeRyの目標は、まず各モデルを固有のビルディングブロックに分割し、それから派生したブロックを選択的に再組み立てて、カスタマイズされたネットワークを生成することである。
ImageNetでは、最高の再組み立てモデルは微調整なしで78.6%のトップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-10-24T10:16:13Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。