論文の概要: BookGPT: A General Framework for Book Recommendation Empowered by Large
Language Model
- arxiv url: http://arxiv.org/abs/2305.15673v1
- Date: Thu, 25 May 2023 02:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:54:25.170099
- Title: BookGPT: A General Framework for Book Recommendation Empowered by Large
Language Model
- Title(参考訳): bookgpt: 大規模言語モデルによる書籍レコメンデーションのための汎用フレームワーク
- Authors: Aakas Zhiyuli, Yanfang Chen, Xuan Zhang, Xun Liang
- Abstract要約: 本稿では、ChatGPTをモデリング対象とし、LLM技術を典型的な書籍リソース理解・レコメンデーションシナリオに組み込んだ上で、それを実践する。
本稿では,ChatGPTをベースとした書籍推薦システム(BookGPT)を構築することにより,書評推薦,ユーザ評価推薦,書籍要約推薦の3つの典型的な課題に対する推薦モデルにChatGPTを適用しようとする。
同時に、本推薦タスクと既存の古典的レコメンデーションモデルに対する異なる評価手法に基づいて、本推薦におけるブックGPTの利点とデメリットについて論じる。
- 参考スコア(独自算出の注目度): 7.026951150174284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the continuous development and change exhibited by large language model
(LLM) technology, represented by generative pretrained transformers (GPTs),
many classic scenarios in various fields have re-emerged with new
opportunities. This paper takes ChatGPT as the modeling object, incorporates
LLM technology into the typical book resource understanding and recommendation
scenario for the first time, and puts it into practice. By building a
ChatGPT-like book recommendation system (BookGPT) framework based on ChatGPT,
this paper attempts to apply ChatGPT to recommendation modeling for three
typical tasks, book rating recommendation, user rating recommendation, and book
summary recommendation, and explores the feasibility of LLM technology in book
recommendation scenarios. At the same time, based on different evaluation
schemes for book recommendation tasks and the existing classic recommendation
models, this paper discusses the advantages and disadvantages of the BookGPT in
book recommendation scenarios and analyzes the opportunities and improvement
directions for subsequent LLMs in these scenarios.
- Abstract(参考訳): ジェネラティブプリトレーニングトランスフォーマー(gpts)に代表される大規模言語モデル(llm)技術によって示される継続的開発と変化により、さまざまな分野の古典的なシナリオが新たな機会と共に再統合されている。
本稿では、ChatGPTをモデリング対象とし、LLM技術を典型的な書籍リソース理解・レコメンデーションシナリオに組み込んだ上で、それを実践する。
本稿では,ChatGPTをベースとした書籍推薦システム(BookGPT)を構築することにより,書評推薦,ユーザ評価推薦,書籍要約推薦という3つの典型的な課題のモデリングにChatGPTを適用し,書評推薦シナリオにおけるLCM技術の可能性を探究する。
同時に,本レコメンデーション課題の評価手法と従来のレコメンデーションモデルに基づいて,本レコメンデーションシナリオにおけるブックGPTのメリットとデメリットを論じ,これらのシナリオにおけるその後のLCMの機会と改善の方向性を分析する。
関連論文リスト
- Towards LLM-RecSys Alignment with Textual ID Learning [48.018397048791115]
我々は,各項目を一意で簡潔で,意味的にリッチで,プラットフォームに依存しないテキストIDとして表現するIDGenを提案する。
標準実験条件下では,IDGen が既存のモデルを常に上回り,逐次レコメンデーションすることを示す。
その結果、事前訓練された基礎モデルのゼロショット性能は、従来のレコメンデーションモデルに匹敵するか、それ以上に優れていることが示された。
論文 参考訳(メタデータ) (2024-03-27T21:22:37Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - GenRec: Large Language Model for Generative Recommendation [41.22833600362077]
本稿では,テキストデータに基づく大規模言語モデル(LLM)を用いたレコメンデーションシステムに対する革新的なアプローチを提案する。
GenRecはLLMの理解機能を使ってコンテキストを解釈し、ユーザの好みを学習し、関連するレコメンデーションを生成する。
本研究は,レコメンデーションシステムの領域に革命をもたらす上で,LLMに基づくジェネレーティブレコメンデーションの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-02T02:37:07Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Enhancing E-Commerce Recommendation using Pre-Trained Language Model and
Fine-Tuning [3.5679973993372642]
本稿では,事前学習した言語モデルを推薦アルゴリズムに組み込むことがeコマースデータセットに与える影響について検討する。
PLMとドメイン固有微調整の適用により,複合モデルの予測能力が向上することを示す。
論文 参考訳(メタデータ) (2023-02-09T05:20:52Z) - AMMUS : A Survey of Transformer-based Pretrained Models in Natural
Language Processing [0.0]
トランスフォーマーベースの事前訓練言語モデル(T-PTLM)は、ほぼすべてのNLPタスクで大きな成功を収めている。
変換されたPTLMは、自己教師付き学習を用いて大量のテキストデータから普遍的な言語表現を学習する。
これらのモデルは、下流モデルのスクラッチからのトレーニングを避けるために、下流タスクに適切なバックグラウンド知識を提供する。
論文 参考訳(メタデータ) (2021-08-12T05:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。