論文の概要: RecGPT: Generative Pre-training for Text-based Recommendation
- arxiv url: http://arxiv.org/abs/2405.12715v1
- Date: Tue, 21 May 2024 12:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:29:38.981685
- Title: RecGPT: Generative Pre-training for Text-based Recommendation
- Title(参考訳): RecGPT: テキストベースのレコメンデーションのための生成前トレーニング
- Authors: Hoang Ngo, Dat Quoc Nguyen,
- Abstract要約: ドメイン適応型および完全学習型大規模言語モデルであるRecGPT-7Bをテキストベースで提案する。
評価予測とシーケンシャルレコメンデーションタスクによる実験結果から,我々のモデルであるRecGPT-7B-Instructは,従来の強いベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 9.414164374919029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the first domain-adapted and fully-trained large language model, RecGPT-7B, and its instruction-following variant, RecGPT-7B-Instruct, for text-based recommendation. Experimental results on rating prediction and sequential recommendation tasks show that our model, RecGPT-7B-Instruct, outperforms previous strong baselines. We are releasing our RecGPT models as well as their pre-training and fine-tuning datasets to facilitate future research and downstream applications in text-based recommendation. Public "huggingface" links to our RecGPT models and datasets are available at: https://github.com/VinAIResearch/RecGPT
- Abstract(参考訳): ドメイン適応型および完全学習型大規模言語モデルであるRecGPT-7Bとその命令追従型であるRecGPT-7B-Instructをテキストベースで提案する。
評価予測とシーケンシャルレコメンデーションタスクによる実験結果から,我々のモデルであるRecGPT-7B-Instructは,従来の強いベースラインよりも優れていた。
RecGPTモデルだけでなく、トレーニング済みで微調整されたデータセットもリリースしています。
https://github.com/VinAIResearch/RecGPT
関連論文リスト
- IDGenRec: LLM-RecSys Alignment with Textual ID Learning [48.018397048791115]
我々は,各項目を一意で簡潔で,意味的にリッチで,プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
標準実験条件下では,IDGen が既存のモデルを常に上回り,逐次レコメンデーションすることを示す。
その結果、事前訓練された基礎モデルのゼロショット性能は、従来のレコメンデーションモデルに匹敵するか、それ以上に優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T21:22:37Z) - Aligning GPTRec with Beyond-Accuracy Goals with Reinforcement Learning [67.71952251641545]
GPTRecはアイテム・バイ・イテムレコメンデーションのためのTop-Kモデルの代替品である。
GPTRecは,従来のグリーディ・リグレード手法よりも精度とセカンダリ・メトリクスのトレードオフが優れていることを示す。
2つのデータセットに対する実験により、GPTRecのNext-K生成アプローチは、古典的なグリージーな再ランク技術よりも精度と二次メトリクスのトレードオフが優れていることが示された。
論文 参考訳(メタデータ) (2024-03-07T19:47:48Z) - Zephyr: Direct Distillation of LM Alignment [59.03530095974505]
ユーザ意図に合わせた,より小さな言語モデルの実現を目指しています。
従来の研究では、より大規模なモデルに教師付き微調整(dSFT)を適用することにより、タスクの精度が大幅に向上することが示されている。
蒸留直接選好最適化(dDPO)を用いて,意図のアライメントを大幅に改善したチャットモデルを学習する。
論文 参考訳(メタデータ) (2023-10-25T19:25:16Z) - Attentive Graph-based Text-aware Preference Modeling for Top-N
Recommendation [2.3991565023534083]
我々はAttentive Graph-based Text-aware Recommendation Model (AGTM) という新しいモデルを提案する。
本研究では,項目テキストコンテンツと高次接続性の両方を効果的にモデル化し,トップNレコメンデーションをさらに改善することを目的としている。
論文 参考訳(メタデータ) (2023-05-22T12:32:06Z) - Shall We Pretrain Autoregressive Language Models with Retrieval? A
Comprehensive Study [115.96080028033904]
本稿では,拡張性のある事前学習型検索拡張LM(RETRO)について,標準GPTと検索拡張GPTと比較した。
本研究は, 将来の基盤モデルとしての検索による自己回帰型LMの事前学習の方向性を明らかにするものである。
論文 参考訳(メタデータ) (2023-04-13T18:04:19Z) - Enhancing E-Commerce Recommendation using Pre-Trained Language Model and
Fine-Tuning [3.5679973993372642]
本稿では,事前学習した言語モデルを推薦アルゴリズムに組み込むことがeコマースデータセットに与える影響について検討する。
PLMとドメイン固有微調整の適用により,複合モデルの予測能力が向上することを示す。
論文 参考訳(メタデータ) (2023-02-09T05:20:52Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - Text-to-Text Pre-Training for Data-to-Text Tasks [9.690158790639131]
データ・トゥ・テキスト・タスクのための事前訓練+微調整戦略について検討する。
実験により,テキストからテキストへの事前学習により,単純なエンドツーエンドのトランスフォーマーモデルが実現できることが示唆された。
論文 参考訳(メタデータ) (2020-05-21T02:46:15Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。