論文の概要: KELLMRec: Knowledge-Enhanced Large Language Models for Recommendation
- arxiv url: http://arxiv.org/abs/2403.06642v1
- Date: Mon, 11 Mar 2024 12:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:25:09.991917
- Title: KELLMRec: Knowledge-Enhanced Large Language Models for Recommendation
- Title(参考訳): kellmrec: 知識に富んだ大規模言語モデル
- Authors: Weiqing Luo, Chonggang Song, Lingling Yi, Gong Cheng
- Abstract要約: セマンティック情報の利用はレコメンデーターシステム分野における重要な研究課題である。
LLMの台頭に伴い、知識基盤として機能する能力と推論能力は、この研究領域に新たな可能性をもたらしている。
これに対応するための有望な方法は、外部知識を使用して、真実で使用可能なテキストを生成するLLMを支援することである。
提案手法は,プロンプトにおける外部知識の使用に加えて,学習のための知識に基づくコントラスト学習スキームも含んでいる。
- 参考スコア(独自算出の注目度): 9.851321405237638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The utilization of semantic information is an important research problem in
the field of recommender systems, which aims to complement the missing parts of
mainstream ID-based approaches. With the rise of LLM, its ability to act as a
knowledge base and its reasoning capability have opened up new possibilities
for this research area, making LLM-based recommendation an emerging research
direction. However, directly using LLM to process semantic information for
recommendation scenarios is unreliable and sub-optimal due to several problems
such as hallucination. A promising way to cope with this is to use external
knowledge to aid LLM in generating truthful and usable text. Inspired by the
above motivation, we propose a Knowledge-Enhanced LLMRec method. In addition to
using external knowledge in prompts, the proposed method also includes a
knowledge-based contrastive learning scheme for training. Experiments on public
datasets and in-enterprise datasets validate the effectiveness of the proposed
method.
- Abstract(参考訳): セマンティック情報の利用は、主流のIDベースのアプローチの欠如を補うことを目的としたレコメンデーターシステム分野における重要な研究課題である。
LLMの台頭に伴い、知識基盤として機能する能力とその推論能力は、この研究領域に新たな可能性をもたらし、LLMベースの推薦が新たな研究方向となる。
しかし,LLMを直接使用してレコメンデーションシナリオのセマンティック情報を処理することは,幻覚などの問題により信頼性が低く,準最適である。
これに対処する有望な方法は、外部の知識を使ってllmを助け、真正で使いやすいテキストを生成することである。
以上の動機に着想を得て,知識強化LLMRec法を提案する。
提案手法は,プロンプトにおける外部知識の活用に加えて,学習のための知識ベースのコントラスト学習スキームも含む。
公開データセットと企業内データセットの実験は、提案手法の有効性を検証する。
関連論文リスト
- Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Quantitative knowledge retrieval from large language models [4.155711233354597]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
本稿では,データ解析作業を支援するための定量的知識検索のメカニズムとして,LLMの実現可能性について検討する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z) - Clue-Guided Path Exploration: An Efficient Knowledge Base
Question-Answering Framework with Low Computational Resource Consumption [22.74267517598694]
知識ベースとLLMを効率的にマージするCGPE(Clue-Guided Path Exploration framework)を導入する。
CGPEは、人間が手動で知識を検索する手法にインスパイアされ、必要な知識経路を体系的に探索するための手がかりとして、質問からの情報を利用する。
オープンソースデータセットの実験では、CGPEは従来の手法よりも優れており、パラメータが少ないLCMに適用可能であることが明らかになった。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - A Survey on Large Language Models for Recommendation [80.01023231943205]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Rethinking with Retrieval: Faithful Large Language Model Inference [91.66406351103484]
我々は検索(RR)で再考する新しいポストプロセッシング手法を提案する。
RRは、チェーン・オブ・シークレット・プロンプトから得られた推論ステップに基づいて、関連する外部知識を検索する。
複雑な3つの推論課題に対する GPT-3 を用いた広範囲な実験により RR の有効性を評価する。
論文 参考訳(メタデータ) (2022-12-31T22:35:34Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [60.67550275379953]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。