論文の概要: Knowing What's Missing: Assessing Information Sufficiency in Question Answering
- arxiv url: http://arxiv.org/abs/2512.06476v1
- Date: Sat, 06 Dec 2025 15:58:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.376101
- Title: Knowing What's Missing: Assessing Information Sufficiency in Question Answering
- Title(参考訳): 見逃しているものを知る:質問応答における情報十分性の評価
- Authors: Akriti Jain, Aparna Garimella,
- Abstract要約: 本稿では,堅牢な十分性モデリングのための構造化Identify-then-Verifyフレームワークを提案する。
提案手法は,多様なマルチホップおよび実QAデータセット間で確立されたベースラインに対して評価する。
- 参考スコア(独自算出の注目度): 3.8786514101828167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Determining whether a provided context contains sufficient information to answer a question is a critical challenge for building reliable question-answering systems. While simple prompting strategies have shown success on factual questions, they frequently fail on inferential ones that require reasoning beyond direct text extraction. We hypothesize that asking a model to first reason about what specific information is missing provides a more reliable, implicit signal for assessing overall sufficiency. To this end, we propose a structured Identify-then-Verify framework for robust sufficiency modeling. Our method first generates multiple hypotheses about missing information and establishes a semantic consensus. It then performs a critical verification step, forcing the model to re-examine the source text to confirm whether this information is truly absent. We evaluate our method against established baselines across diverse multi-hop and factual QA datasets. The results demonstrate that by guiding the model to justify its claims about missing information, our framework produces more accurate sufficiency judgments while clearly articulating any information gaps.
- Abstract(参考訳): 与えられたコンテキストが質問に答える十分な情報を含んでいるかどうかを決定することは、信頼できる質問応答システムを構築する上で重要な課題である。
単純なプロンプト戦略は事実の質問で成功したが、直接テキスト抽出以上の推論を必要とする推論では失敗することが多い。
モデルに、何が欠けているのかを第一に判断するよう求めることは、全体的な充足性を評価する上で、より信頼性が高く暗黙的な信号を与える、という仮説を立てる。
そこで本研究では,堅牢な十分性モデリングのための構造化Identify-then-Verifyフレームワークを提案する。
提案手法はまず,不足情報に関する複数の仮説を生成し,意味的コンセンサスを確立する。
そして、重要な検証ステップを実行し、モデルにソーステキストを再検査させ、この情報が本当に欠落しているかどうかを確認する。
提案手法は,多様なマルチホップおよび実QAデータセット間で確立されたベースラインに対して評価する。
以上の結果から,情報不足に関する主張を正当化するためにモデルを導くことにより,我々のフレームワークは,情報ギャップを明確に表現しつつ,より正確な十分判断を導出できることを示した。
関連論文リスト
- Explaining Sources of Uncertainty in Automated Fact-Checking [41.236833314783134]
CLUE (Conflict-and-Agreement-aware Language-aware Language-model Uncertainty Explanations) は、モデル不確実性の自然言語説明を生成するフレームワークである。
クレーム・エビデンス(クレーム・エビデンス)またはインターエビデンス・コンフリクト(インターエビデンス・コンフリクト)を暴露するテキストと、モデルの予測の不確実性を促進する合意の間の関係を識別する。
CLUEは、モデルの不確実性により忠実で、事実チェックの決定とより一貫性のある説明を生成する。
論文 参考訳(メタデータ) (2025-05-23T13:06:43Z) - Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification [60.10193972862099]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - EX-FEVER: A Dataset for Multi-hop Explainable Fact Verification [22.785622371421876]
マルチホップで説明可能な事実検証のための先駆的データセットを提案する。
2ホップと3ホップの推論を含む6万件以上の主張により、それぞれがハイパーリンクされたウィキペディア文書から情報を要約して修正することによって作成される。
提案するEX-FEVERデータセットをベースラインとして,文書検索,説明生成,クレーム検証を行う。
論文 参考訳(メタデータ) (2023-10-15T06:46:15Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - ReCEval: Evaluating Reasoning Chains via Correctness and Informativeness [67.49087159888298]
ReCEvalは2つの重要な特性(正確性と情報性)を通じて推論チェーンを評価するフレームワークである。
本稿では、ReCEvalが様々なエラータイプを効果的に識別し、従来の手法と比較して顕著な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-04-21T02:19:06Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。