論文の概要: LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application
- arxiv url: http://arxiv.org/abs/2405.03988v2
- Date: Tue, 10 Dec 2024 07:40:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:34:13.792990
- Title: LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application
- Title(参考訳): LEARN:大規模言語モデルから実践的産業応用のための勧告への知識適応
- Authors: Jian Jia, Yipei Wang, Yan Li, Honggang Chen, Xuehan Bai, Zhaocheng Liu, Jian Liang, Quan Chen, Han Li, Peng Jiang, Kun Gai,
- Abstract要約: Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 54.984348122105516
- License:
- Abstract: Contemporary recommendation systems predominantly rely on ID embedding to capture latent associations among users and items. However, this approach overlooks the wealth of semantic information embedded within textual descriptions of items, leading to suboptimal performance and poor generalizations. Leveraging the capability of large language models to comprehend and reason about textual content presents a promising avenue for advancing recommendation systems. To achieve this, we propose an Llm-driven knowlEdge Adaptive RecommeNdation (LEARN) framework that synergizes open-world knowledge with collaborative knowledge. We address computational complexity concerns by utilizing pretrained LLMs as item encoders and freezing LLM parameters to avoid catastrophic forgetting and preserve open-world knowledge. To bridge the gap between the open-world and collaborative domains, we design a twin-tower structure supervised by the recommendation task and tailored for practical industrial application. Through experiments on the real large-scale industrial dataset and online A/B tests, we demonstrate the efficacy of our approach in industry application. We also achieve state-of-the-art performance on six Amazon Review datasets to verify the superiority of our method.
- Abstract(参考訳): 現代のレコメンデーションシステムは、主にユーザとアイテム間の潜伏関係をキャプチャするためにID埋め込みに依存している。
しかし,本手法は,項目のテキスト記述に埋め込まれた意味情報の豊富さを克服し,準最適性能と一般化の低さをもたらす。
文章の内容の理解と推論に大規模言語モデルの能力を活用することは、推薦システムの進歩に有望な道のりを示す。
そこで我々は,Llm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
我々は,事前学習したLLMをアイテムエンコーダとして利用し,LLMパラメータを凍結することにより,破滅的な忘れ込みを回避し,オープンワールドの知識を保存し,計算複雑性の懸念に対処する。
オープンワールドとコラボレーティブドメインのギャップを埋めるために、推奨タスクによって監督されるツイントウ構造を設計し、実用的な産業用途に適合させる。
実大規模産業データセットとオンラインA/Bテストの実験を通じて、産業応用における我々のアプローチの有効性を実証する。
また、6つのAmazon Reviewデータセット上での最先端のパフォーマンスも達成し、その方法の優位性を検証する。
関連論文リスト
- Bridging the User-side Knowledge Gap in Knowledge-aware Recommendations with Large Language Models [15.41378841915072]
大規模言語モデル(LLM)は、人間の行動理解と広範囲な現実世界の知識を活用することによってギャップを埋める可能性を提供する。
本稿では,LLMに基づくユーザ側知識推論手法と,慎重に設計した推薦フレームワークを提案する。
提案手法は,特に疎結合なユーザに対して,競合するベースラインと比較して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-18T06:43:56Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models [39.193602991105]
大規模言語モデル(LLM)は、事前学習から深い意味理解と広範な知識を持っている。
我々は、コンテンツベースのレコメンデーションを強化するために、オープンソースLLMとクローズドソースLLMの両方を活用する可能性を探る。
既存の最先端レコメンデーションモデルと比較して, 最大19.32%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-05-11T04:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。