論文の概要: Knowledge Editing for Multi-Hop Question Answering Using Semantic Analysis
- arxiv url: http://arxiv.org/abs/2508.00914v1
- Date: Tue, 29 Jul 2025 19:58:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.619873
- Title: Knowledge Editing for Multi-Hop Question Answering Using Semantic Analysis
- Title(参考訳): 意味分析を用いたマルチホップ質問回答のための知識編集
- Authors: Dominic Simon, Rickard Ewetz,
- Abstract要約: 大規模言語モデル(LLM)は、時代遅れになった保存された情報を更新する軽量な方法を必要とする。
我々はCHECKと呼ばれる意味分析に基づくMQAの知識エディタを提案する。
- 参考スコア(独自算出の注目度): 4.926795473283984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) require lightweight avenues of updating stored information that has fallen out of date. Knowledge Editing (KE) approaches have been successful in updating model knowledge for simple factual queries but struggle with handling tasks that require compositional reasoning such as multi-hop question answering (MQA). We observe that existing knowledge editors leverage decompositional techniques that result in illogical reasoning processes. In this paper, we propose a knowledge editor for MQA based on semantic analysis called CHECK. Our framework is based on insights from an analogy between compilers and reasoning using LLMs. Similar to how source code is first compiled before being executed, we propose to semantically analyze reasoning chains before executing the chains to answer questions. Reasoning chains with semantic errors are revised to ensure consistency through logic optimization and re-prompting the LLM model at a higher temperature. We evaluate the effectiveness of CHECK against five state-of-the-art frameworks on four datasets and achieve an average 22.8% improved MQA accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)は、時代遅れになった保存された情報を更新する軽量な方法を必要とする。
知識編集(KE)アプローチは、単純な事実クエリのモデル知識の更新に成功しているが、マルチホップ質問応答(MQA)のような構成的推論を必要とするタスクの処理に苦労している。
既存の知識エディターは、非論理的推論プロセスをもたらす分解的手法を活用することを観察する。
本稿では,CHECKと呼ばれる意味解析に基づくMQAの知識エディタを提案する。
我々のフレームワークは、コンパイラとLLMを用いた推論のアナロジーからの洞察に基づいている。
ソースコードが最初に実行される前にコンパイルされるのと同じように、我々は、チェーンを実行して質問に答える前に、推論チェーンを意味的に分析することを提案する。
論理最適化によって整合性を確保し,LLMモデルを高温で再ジャンプするために,セマンティックエラーを伴う推論チェーンを改訂する。
我々は、4つのデータセット上で5つの最先端フレームワークに対するCHECKの有効性を評価し、平均22.8%の改善MQA精度を達成する。
関連論文リスト
- Knowledge Updating? No More Model Editing! Just Selective Contextual Reasoning [38.018263569983226]
信頼性,一般化,局所性,可搬性という4次元の10種類のモデル編集手法の評価を行った。
次に、知識更新のためのSCR(Selective Contextual Reasoning)という簡単な手法を提案する。
論文 参考訳(メタデータ) (2025-03-07T08:04:25Z) - Memory-augmented Query Reconstruction for LLM-based Knowledge Graph Reasoning [45.74704900487982]
大規模言語モデル (LLM) は知識グラフ質問応答タスクにおいて顕著な性能を達成している。
本稿では,LLM をツール実行タスクから切り離すために,LLM ベースの知識グラフ推論 (MemQ) のためのメモリ拡張クエリ再構成を提案する。
MemQは、広く使われているベンチマークであるWebQSPとCWQで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-07T07:28:32Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Effective Instruction Parsing Plugin for Complex Logical Query Answering on Knowledge Graphs [51.33342412699939]
知識グラフクエリ埋め込み(KGQE)は、不完全なKGに対する複雑な推論のために、低次元KG空間に一階論理(FOL)クエリを埋め込むことを目的としている。
近年の研究では、FOLクエリの論理的セマンティクスをよりよく捉えるために、さまざまな外部情報(エンティティタイプや関係コンテキストなど)を統合している。
コードのようなクエリ命令から遅延クエリパターンをキャプチャする効果的なクエリ命令解析(QIPP)を提案する。
論文 参考訳(メタデータ) (2024-10-27T03:18:52Z) - Retrieval-enhanced Knowledge Editing in Language Models for Multi-Hop Question Answering [47.199078631274745]
大規模言語モデル(LLM)は質問応答タスクの習熟度を示しているが、しばしばリアルタイム知識の統合に苦慮している。
マルチホップ質問応答のためのRetrieval-Augmented Model Editing (RAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-28T17:47:19Z) - Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - LogicAsker: Evaluating and Improving the Logical Reasoning Ability of Large Language Models [63.14196038655506]
大規模言語モデル(LLM)の論理的推論能力を評価・拡張するための新しいアプローチであるLogicAskerを紹介する。
提案手法は, LLMが論理規則を学習する際の大きなギャップを明らかにし, 異なるモデル間で29%から90%の推論失敗を識別する。
GPT-4oのようなモデルにおける論理的推論を最大5%向上させることで、これらの知見を活用して、ターゲットとなる実演例と微調整データを構築した。
論文 参考訳(メタデータ) (2024-01-01T13:53:53Z) - PokeMQA: Programmable knowledge editing for Multi-hop Question Answering [46.80110170981976]
マルチホップ質問応答(MQA)は、マシンの理解と推論能力を評価する上で難しいタスクの1つである。
マルチホップ質問回答(MQA)のためのフレームワーク、Programmable Knowledge Editorを提案する。
具体的には、LLMの動作を外部のコンフリクト信号に応じて変調する訓練可能なスコープ検出器と相互作用しながら、知識強化されたマルチホップ質問を分解するよう促す。
論文 参考訳(メタデータ) (2023-12-23T08:32:13Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。