論文の概要: Personalizing Large Language Models using Retrieval Augmented Generation and Knowledge Graph
- arxiv url: http://arxiv.org/abs/2505.09945v1
- Date: Thu, 15 May 2025 04:01:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.180007
- Title: Personalizing Large Language Models using Retrieval Augmented Generation and Knowledge Graph
- Title(参考訳): 検索拡張生成と知識グラフを用いた大規模言語モデルのパーソナライズ
- Authors: Deeksha Prahlad, Chanhee Lee, Dongha Kim, Hokeun Kim,
- Abstract要約: 大きな言語モデル(LLM)は、会話アシスタントでクエリされた応答を生成するために使用することができる。
このような問題の根本原因の1つは、LLMに供給されるタイムリー、事実、パーソナライズされた情報の欠如である。
知識グラフ(KG)を用いた検索拡張生成(RAG)の導入により,これらの問題に対処する手法を提案する。
本手法は,個人データをテキスト入力として用いたベースラインLLMと比較して,個人情報の理解や正確な応答生成に優れる。
- 参考スコア(独自算出の注目度): 4.661404760668585
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The advent of large language models (LLMs) has allowed numerous applications, including the generation of queried responses, to be leveraged in chatbots and other conversational assistants. Being trained on a plethora of data, LLMs often undergo high levels of over-fitting, resulting in the generation of extra and incorrect data, thus causing hallucinations in output generation. One of the root causes of such problems is the lack of timely, factual, and personalized information fed to the LLM. In this paper, we propose an approach to address these problems by introducing retrieval augmented generation (RAG) using knowledge graphs (KGs) to assist the LLM in personalized response generation tailored to the users. KGs have the advantage of storing continuously updated factual information in a structured way. While our KGs can be used for a variety of frequently updated personal data, such as calendar, contact, and location data, we focus on calendar data in this paper. Our experimental results show that our approach works significantly better in understanding personal information and generating accurate responses compared to the baseline LLMs using personal data as text inputs, with a moderate reduction in response time.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現により、問い合わせ応答の生成を含む多数のアプリケーションがチャットボットや他の会話アシスタントで活用できるようになった。
大量のデータで訓練されているため、LLMは高いレベルの過剰適合を経験し、結果として余分なデータと不正なデータを生成し、その結果、出力生成に幻覚を引き起こす。
このような問題の根本原因の1つは、LLMに供給されるタイムリー、事実、パーソナライズされた情報の欠如である。
本稿では,ユーザに適したパーソナライズされた応答生成におけるLCMを支援するために,知識グラフ(KG)を用いた検索拡張生成(RAG)を導入することで,これらの問題に対処するアプローチを提案する。
KGは継続的に更新された事実情報を構造化された方法で保存する利点がある。
我々のKGは、カレンダー、連絡先、位置情報など、頻繁に更新される個人データに利用できるが、本論文ではカレンダーデータに焦点を当てる。
実験結果から,本手法は,テキスト入力として個人データを用いたベースラインLLMよりも,個人情報の理解や正確な応答生成に優れており,応答時間の適度な短縮が期待できることがわかった。
関連論文リスト
- Knowledge Graphs for Enhancing Large Language Models in Entity Disambiguation [0.061446808540639365]
我々は、ゼロショットエンティティ曖昧化(ED)のためのLarge Language Models(LLM)を強化するために知識グラフを使用します。
我々は、KG内のエンティティのクラスを階層的に表現することで、候補空間とエンティティの記述を訓練し、入力プロンプトを追加の事実知識で強化する。
一般的なEDデータセットを用いた評価の結果,提案手法は非強化および記述専用拡張LDMよりも優れており,タスク固有モデルよりも適応性が高いことがわかった。
論文 参考訳(メタデータ) (2025-05-05T15:40:24Z) - LLM Enhancer: Merged Approach using Vector Embedding for Reducing Large Language Model Hallucinations with External Knowledge [0.0]
大規模言語モデル(LLM)は、様々なタスクにまたがる自然な応答を生成する能力を実証した。
本稿では,Google,Wikipedia,DuckDuckGoなどの複数のオンラインソースを統合して,データの精度を向上させるLLM ENHANCERシステムを提案する。
論文 参考訳(メタデータ) (2025-04-29T19:27:04Z) - RAP: Retrieval-Augmented Personalization for Multimodal Large Language Models [53.304699445700926]
MLLMのパーソナライズのための検索強化パーソナライズフレームワークについて紹介する。
一般的なMLLMから始まり、3つのステップでパーソナライズされたアシスタントにします。
大規模データセットを事前トレーニングすることにより、RAP-MLLMは、追加の微調整なしで無限の視覚概念に一般化することができる。
論文 参考訳(メタデータ) (2024-10-17T09:10:26Z) - Cross-Data Knowledge Graph Construction for LLM-enabled Educational Question-Answering System: A Case Study at HCMUT [2.8000537365271367]
大規模言語モデル(LLM)は活発な研究トピックとして現れている。
LLMはイベントの記憶、新しい情報の導入、ドメイン固有の問題や幻覚への対処において課題に直面している。
本稿では,複数のデータソースから知識グラフを自動的に構築する手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T16:34:31Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。