論文の概要: ALEX:A Light Editing-knowledge Extractor
- arxiv url: http://arxiv.org/abs/2511.14018v1
- Date: Tue, 18 Nov 2025 00:54:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.859183
- Title: ALEX:A Light Editing-knowledge Extractor
- Title(参考訳): ALEX:光編集知識エクストラクタ
- Authors: Minghu Wang, Shuliang Zhao, Yuanyuan Zhao, Hongxia Xu,
- Abstract要約: 本稿では,軽量な知識編集フレームワークであるALEXを紹介する。
ALEXの中核となるイノベーションは階層型メモリアーキテクチャであり、知識更新(編集)をセマンティッククラスタにまとめる。
MQUAKEベンチマークの実験では、ALEXはマルチホップ回答の精度と推論パスの信頼性の両方を著しく改善している。
- 参考スコア(独自算出の注目度): 4.356025557149574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The static nature of knowledge within Large Language Models (LLMs) makes it difficult for them to adapt to evolving information, rendering knowledge editing a critical task. However, existing methods struggle with challenges of scalability and retrieval efficiency, particularly when handling complex, multi-hop questions that require multi-step reasoning. To address these challenges, this paper introduces ALEX (A Light Editing-knowledge Extractor), a lightweight knowledge editing framework. The core innovation of ALEX is its hierarchical memory architecture, which organizes knowledge updates (edits) into semantic clusters. This design fundamentally reduces retrieval complexity from a linear O(N) to a highly scalable O(K+N/C). Furthermore, the framework integrates an Inferential Query Synthesis (IQS) module to bridge the semantic gap between queries and facts , and a Dynamic Evidence Adjudication (DEA) engine that executes an efficient two-stage retrieval process. Experiments on the MQUAKE benchmark demonstrate that ALEX significantly improves both the accuracy of multi-hop answers (MultiHop-ACC) and the reliability of reasoning paths (HopWise-ACC). It also reduces the required search space by over 80% , presenting a promising path toward building scalable, efficient, and accurate knowledge editing systems.
- Abstract(参考訳): LLM(Large Language Models)内の知識の静的な性質は、進化する情報に適応することが難しくなり、知識の編集が重要なタスクとなる。
しかし、既存の手法はスケーラビリティと検索効率の難しさに悩まされており、特に多段階の推論を必要とする複雑なマルチホップ問題を扱う場合である。
これらの課題に対処するために,軽量な知識編集フレームワークであるALEX(A Light Editing-knowledge Extractor)を紹介する。
ALEXの中核となるイノベーションは階層型メモリアーキテクチャであり、知識更新(編集)をセマンティッククラスタにまとめる。
この設計は、線形 O(N) から高度にスケーラブルな O(K+N/C) への検索の複雑さを根本的に低減する。
さらに、このフレームワークは、クエリと事実間のセマンティックギャップを橋渡しするために、Inferential Query Synthesis (IQS)モジュールと、効率的な2段階検索プロセスを実行するDynamic Evidence Adjudication (DEA)エンジンを統合する。
MQUAKEベンチマークの実験では、ALEXはマルチホップ回答の精度(MultiHop-ACC)と推論パスの信頼性(HopWise-ACC)の両方を著しく改善している。
また、必要な検索スペースを80%以上削減し、スケーラブルで効率的で正確な知識編集システムを構築するための有望な道を示す。
関連論文リスト
- Executable Knowledge Graphs for Replicating AI Research [65.41207324831583]
Executable Knowledge Graphs (xKG) は、科学文献から抽出された技術的洞察、コードスニペット、ドメイン固有の知識を自動的に統合するモジュラーでプラグイン可能な知識基盤である。
コードはhttps://github.com/zjunlp/xKGでリリースされる。
論文 参考訳(メタデータ) (2025-10-20T17:53:23Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Knowledge-Aware Iterative Retrieval for Multi-Agent Systems [0.0]
本稿では,新しい大規模言語モデル (LLM) によるエージェントフレームワークを提案する。
動的に進化する知識を活用することで、クエリを反復的に洗練し、文脈的証拠をフィルタリングする。
提案システムは、更新されたコンテキストの競合的および協調的な共有をサポートする。
論文 参考訳(メタデータ) (2025-03-17T15:27:02Z) - LLM-Based Multi-Hop Question Answering with Knowledge Graph Integration in Evolving Environments [35.3938477255058]
本稿では,大規模言語モデル(GMeLLo)のためのグラフメモリベースの編集について述べる。
これは、知識グラフの明示的な知識表現と、大規模言語モデルの言語的柔軟性を融合させる、単純で効果的な方法である。
以上の結果から,GMeLLoはマルチホップ質問応答ベンチマークであるMQuAKEにおいて,最先端の知識編集手法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-08-28T16:15:45Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
大規模言語モデル(LLM)は、しばしば誤ったあるいは幻覚的な応答を生成することで挑戦される。
本稿では,知識グラフから得られた検証可能な推論ステップに回答を固定することで,LLM応答の事実性を改善するための統合フレームワークFiDeLiSを提案する。
トレーニング不要のフレームワークである本手法は,性能の向上だけでなく,異なるベンチマークにおける現実性や解釈可能性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z) - Retrieval-enhanced Knowledge Editing in Language Models for Multi-Hop Question Answering [47.199078631274745]
大規模言語モデル(LLM)は質問応答タスクの習熟度を示しているが、しばしばリアルタイム知識の統合に苦慮している。
マルチホップ質問応答のためのRetrieval-Augmented Model Editing (RAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-28T17:47:19Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。