論文の概要: LLM-Based Multi-Hop Question Answering with Knowledge Graph Integration in Evolving Environments
- arxiv url: http://arxiv.org/abs/2408.15903v2
- Date: Wed, 04 Dec 2024 15:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:05:17.957480
- Title: LLM-Based Multi-Hop Question Answering with Knowledge Graph Integration in Evolving Environments
- Title(参考訳): 進化環境における知識グラフの統合によるLLMに基づくマルチホップ質問応答
- Authors: Ruirui Chen, Weifeng Jiang, Chengwei Qin, Ishaan Singh Rawal, Cheston Tan, Dongkyu Choi, Bo Xiong, Bo Ai,
- Abstract要約: 本稿では,大規模言語モデル(GMeLLo)のためのグラフメモリベースの編集について述べる。
これは、知識グラフの明示的な知識表現と、大規模言語モデルの言語的柔軟性を融合させる、単純で効果的な方法である。
以上の結果から,GMeLLoはマルチホップ質問応答ベンチマークであるMQuAKEにおいて,最先端の知識編集手法をはるかに上回っていることがわかった。
- 参考スコア(独自算出の注目度): 35.3938477255058
- License:
- Abstract: The important challenge of keeping knowledge in Large Language Models (LLMs) up-to-date has led to the development of various methods for incorporating new facts. However, existing methods for such knowledge editing still face difficulties with multi-hop questions that require accurate fact identification and sequential logical reasoning, particularly among numerous fact updates. To tackle these challenges, this paper introduces Graph Memory-based Editing for Large Language Models (GMeLLo), a straightforward and effective method that merges the explicit knowledge representation of Knowledge Graphs (KGs) with the linguistic flexibility of LLMs. Beyond merely leveraging LLMs for question answering, GMeLLo employs these models to convert free-form language into structured queries and fact triples, facilitating seamless interaction with KGs for rapid updates and precise multi-hop reasoning. Our results show that GMeLLo significantly surpasses current state-of-the-art (SOTA) knowledge editing methods in the multi-hop question answering benchmark, MQuAKE, especially in scenarios with extensive knowledge edits.
- Abstract(参考訳): LLM(Large Language Models)における知識を最新に保つという重要な課題は、新しい事実を取り入れるための様々な方法の開発につながっている。
しかし、既存の知識編集手法は、特に多くの事実更新において、正確な事実識別とシーケンシャルな論理的推論を必要とするマルチホップ質問の難しさに直面している。
これらの課題に対処するために、LLMの言語的柔軟性と知識グラフ(KG)の明示的な知識表現を融合する、単純かつ効果的な方法である、大規模言語モデルのためのグラフメモリベースの編集(GMeLLo)を提案する。
GMeLLo は、単に LLM を質問応答に利用するだけでなく、これらのモデルを用いて、自由形式の言語を構造化クエリやファクトトリプルに変換することで、KG とのシームレスな相互作用を容易にし、迅速な更新と正確なマルチホップ推論を実現している。
以上の結果から, GMeLLo はマルチホップ質問応答ベンチマーク MQuAKE の知識編集手法, 特に広範囲な知識編集を行うシナリオにおいて, 最先端の知識編集手法(SOTA)をはるかに上回っていることが明らかとなった。
関連論文リスト
- Knowledge Editing with Dynamic Knowledge Graphs for Multi-Hop Question Answering [31.676874886966925]
MHQA(Multi-hop Question answering)は、大規模言語モデル(LLM)において重要な課題となる。
知識編集は、LLMでMHQAの課題に対処する潜在的な解決策を提供する。
ほとんどのパラメータ保存編集手法は、不正確な検索と二次的な編集の問題によって妨げられている。
本稿では,MHQAの動的知識グラフを利用した知識編集手法であるKEDKGを紹介する。
論文 参考訳(メタデータ) (2024-12-18T12:21:46Z) - Enhancing Multi-hop Reasoning through Knowledge Erasure in Large Language Model Editing [38.590823330865845]
大規模言語モデル(LLM)は、内部知識の不正確さと時代遅れの情報による課題に直面している。
知識編集はこれらの問題を緩和するための重要なアプローチとして現れてきた。
大規模言語モデル編集(KELE)のための知識消去機構を組み込んだ新しい知識編集手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T14:53:33Z) - Cross-Lingual Multi-Hop Knowledge Editing [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Prompting Large Language Models with Knowledge Graphs for Question Answering Involving Long-tail Facts [50.06633829833144]
大規模言語モデル(LLM)は、様々なNLPタスクを実行するのに効果的であるが、広範囲の現実世界の知識を必要とするタスクを扱うのに苦労する。
我々は,関連する疑問に答えるために,長期的事実の知識を必要とするベンチマークを提案する。
実験の結果,LLMだけでこれらの疑問に答えるのに苦労していることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-10T15:10:20Z) - Retrieval-enhanced Knowledge Editing in Language Models for Multi-Hop Question Answering [47.199078631274745]
大規模言語モデル(LLM)は質問応答タスクの習熟度を示しているが、しばしばリアルタイム知識の統合に苦慮している。
マルチホップ質問応答のためのRetrieval-Augmented Model Editing (RAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-28T17:47:19Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs
for Fact-aware Language Modeling [34.59678835272862]
代表的大規模言語モデル(LLM)であるChatGPTは、その強力な創発的能力のために注目されている。
本稿では,知識グラフ強化大言語モデル(KGLLM)によるLLMの強化を提案する。
KGLLMはLLMの事実推論能力を高めるソリューションを提供し、LLM研究のための新たな道を開く。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。