論文の概要: Knowledge-Augmented Question Error Correction for Chinese Question Answer System with QuestionRAG
- arxiv url: http://arxiv.org/abs/2511.03410v1
- Date: Wed, 05 Nov 2025 12:24:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.424111
- Title: Knowledge-Augmented Question Error Correction for Chinese Question Answer System with QuestionRAG
- Title(参考訳): 質問紙を用いた中国語質問応答システムにおける知識付加型質問誤り訂正
- Authors: Longpeng Qiu, Ting Li, Shuai Mao, Nan Yang, Xiaohui Yan,
- Abstract要約: 大規模言語モデル(LLM)は、しばしばユーザーの意図(誤解釈)を解釈したり、必要以上に元の質問の構造(過度な補正)を変更することに失敗する。
これらの問題に対処するフレームワークであるQARAGを提案する。
誤解釈に対処するため、入力を外部知識(検索結果、関連エンティティなど)で強化する。
過度な補正を防ぐためには、強化学習(RL)を使用して、単に言い換えるのではなく、モデルの目的を正確な修正と整合させる。
- 参考スコア(独自算出の注目度): 9.494395215204694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Input errors in question-answering (QA) systems often lead to incorrect responses. Large language models (LLMs) struggle with this task, frequently failing to interpret user intent (misinterpretation) or unnecessarily altering the original question's structure (over-correction). We propose QuestionRAG, a framework that tackles these problems. To address misinterpretation, it enriches the input with external knowledge (e.g., search results, related entities). To prevent over-correction, it uses reinforcement learning (RL) to align the model's objective with precise correction, not just paraphrasing. Our results demonstrate that knowledge augmentation is critical for understanding faulty questions. Furthermore, RL-based alignment proves significantly more effective than traditional supervised fine-tuning (SFT), boosting the model's ability to follow instructions and generalize. By integrating these two strategies, QuestionRAG unlocks the full potential of LLMs for the question correction task.
- Abstract(参考訳): QAシステムにおける入力エラーは、しばしば誤った応答を引き起こす。
大きな言語モデル(LLM)は、このタスクに苦労し、しばしばユーザーの意図(解釈の誤り)を解釈したり、元の質問の構造(過度な修正)を不必要に変更したりする。
これらの問題に対処するフレームワークであるQARAGを提案する。
誤解釈に対処するため、入力を外部知識(例えば、検索結果、関連エンティティ)で強化する。
過度な補正を防ぐためには、強化学習(RL)を使用して、単に言い換えるのではなく、モデルの目的を正確な修正と整合させる。
以上の結果から,知識増強が欠陥質問の理解に不可欠であることが示唆された。
さらに、RLに基づくアライメントは、従来の教師付き微調整(SFT)よりもはるかに効果的であることが証明され、モデルが指示に従い、一般化する能力が向上する。
これら2つの戦略を統合することで、QARAGは質問訂正タスクにLLMの潜在能力を最大限に活用する。
関連論文リスト
- Utilize the Flow before Stepping into the Same River Twice: Certainty Represented Knowledge Flow for Refusal-Aware Instruction Tuning [68.57166425493283]
Refusal-Aware Instruction Tuning (RAIT) により、Large Language Models (LLM) は未知の質問に答えることを拒否できる。
この粗末なアプローチは、LLMが正しく答えられる可能性のある質問に答えることを過剰に拒否する可能性がある。
本稿では,CRaFT(Certainty Represented Knowledge Flow for Refusal-Aware Instructions Tuning)を提案する。
論文 参考訳(メタデータ) (2024-10-09T14:12:51Z) - Mindful-RAG: A Study of Points of Failure in Retrieval Augmented Generation [11.471919529192048]
LLM(Large Language Models)は、コヒーレントで文脈的に関係のあるテキストを生成するのに熟練した言語モデルである。
Retrieval-augmented Generation (RAG) システムは、構造化知識グラフ(KG)のような外部知識ソースを組み込むことによってこれを緩和する。
本研究は,既存のKG法に基づくRAG法における誤りパターンの解析と8つの臨界故障点の同定により,このジレンマについて検討した。
論文 参考訳(メタデータ) (2024-07-16T23:50:07Z) - Retrieval-enhanced Knowledge Editing in Language Models for Multi-Hop Question Answering [47.199078631274745]
大規模言語モデル(LLM)は質問応答タスクの習熟度を示しているが、しばしばリアルタイム知識の統合に苦慮している。
マルチホップ質問応答のためのRetrieval-Augmented Model Editing (RAE) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-28T17:47:19Z) - PokeMQA: Programmable knowledge editing for Multi-hop Question Answering [46.80110170981976]
マルチホップ質問応答(MQA)は、マシンの理解と推論能力を評価する上で難しいタスクの1つである。
マルチホップ質問回答(MQA)のためのフレームワーク、Programmable Knowledge Editorを提案する。
具体的には、LLMの動作を外部のコンフリクト信号に応じて変調する訓練可能なスコープ検出器と相互作用しながら、知識強化されたマルチホップ質問を分解するよう促す。
論文 参考訳(メタデータ) (2023-12-23T08:32:13Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - SelfCheck: Using LLMs to Zero-Shot Check Their Own Step-by-Step
Reasoning [55.76083560152823]
SelfCheckは、ステップバイステップの推論でエラーを認識する汎用的なゼロショット検証スキーマである。
我々は,3つのデータセット(GSM8K,MathQA,MATH)上でSelfCheckをテストし,エラーの認識に成功し,最終的な回答精度が向上することを確認した。
論文 参考訳(メタデータ) (2023-08-01T10:31:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。