論文の概要: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application
- arxiv url: http://arxiv.org/abs/2405.03988v1
- Date: Tue, 7 May 2024 04:00:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:28:42.107907
- Title: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application
- Title(参考訳): 産業応用のための大規模言語モデルからの勧告への知識適応
- Authors: Jian Jia, Yipei Wang, Yan Li, Honggang Chen, Xuehan Bai, Zhaocheng Liu, Jian Liang, Quan Chen, Han Li, Peng Jiang, Kun Gai,
- Abstract要約: 大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 54.984348122105516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary recommender systems predominantly rely on collaborative filtering techniques, employing ID-embedding to capture latent associations among users and items. However, this approach overlooks the wealth of semantic information embedded within textual descriptions of items, leading to suboptimal performance in cold-start scenarios and long-tail user recommendations. Leveraging the capabilities of Large Language Models (LLMs) pretrained on massive text corpus presents a promising avenue for enhancing recommender systems by integrating open-world domain knowledge. In this paper, we propose an Llm-driven knowlEdge Adaptive RecommeNdation (LEARN) framework that synergizes open-world knowledge with collaborative knowledge. We address computational complexity concerns by utilizing pretrained LLMs as item encoders and freezing LLM parameters to avoid catastrophic forgetting and preserve open-world knowledge. To bridge the gap between the open-world and collaborative domains, we design a twin-tower structure supervised by the recommendation task and tailored for practical industrial application. Through offline experiments on the large-scale industrial dataset and online experiments on A/B tests, we demonstrate the efficacy of our approach.
- Abstract(参考訳): 現代のレコメンデータシステムは、主に協調フィルタリング技術に依存しており、ユーザやアイテム間の潜伏関係を捉えるためにID埋め込みを使用している。
しかし,本手法は,項目のテキスト記述に埋め込まれた意味情報の豊富さを克服し,コールドスタートシナリオにおける準最適性能とロングテールユーザレコメンデーションを実現する。
大規模テキストコーパスで事前訓練されたLarge Language Models(LLM)の機能を活用することで、オープンワールドのドメイン知識を統合することでレコメンダシステムを強化するための有望な方法が提示される。
本稿では,Llm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
我々は,事前学習したLLMをアイテムエンコーダとして利用し,LLMパラメータを凍結することにより,破滅的な忘れ込みを回避し,オープンワールドの知識を保存し,計算複雑性の懸念に対処する。
オープンワールドとコラボレーティブドメインのギャップを埋めるために、推奨タスクによって監督されるツイントウ構造を設計し、実用的な産業用途に適合させる。
大規模産業データセットのオフライン実験とA/Bテストのオンライン実験を通じて,本手法の有効性を実証した。
関連論文リスト
- Bridging the User-side Knowledge Gap in Knowledge-aware Recommendations with Large Language Models [15.41378841915072]
大規模言語モデル(LLM)は、人間の行動理解と広範囲な現実世界の知識を活用することによってギャップを埋める可能性を提供する。
本稿では,LLMに基づくユーザ側知識推論手法と,慎重に設計した推薦フレームワークを提案する。
提案手法は,特に疎結合なユーザに対して,競合するベースラインと比較して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-18T06:43:56Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - Leveraging Large Language Models for Semantic Query Processing in a Scholarly Knowledge Graph [1.7418328181959968]
本研究は,革新的なセマンティッククエリ処理システムを開発することを目的としている。
オーストラリア国立大学のコンピュータサイエンス(CS)研究者による研究成果に関する総合的な情報を得ることができる。
論文 参考訳(メタデータ) (2024-05-24T09:19:45Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models [39.193602991105]
大規模言語モデル(LLM)は、事前学習から深い意味理解と広範な知識を持っている。
我々は、コンテンツベースのレコメンデーションを強化するために、オープンソースLLMとクローズドソースLLMの両方を活用する可能性を探る。
既存の最先端レコメンデーションモデルと比較して, 最大19.32%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-05-11T04:51:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。