論文の概要: Identifying and Answering Questions with False Assumptions: An Interpretable Approach
- arxiv url: http://arxiv.org/abs/2508.15139v1
- Date: Thu, 21 Aug 2025 00:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.133674
- Title: Identifying and Answering Questions with False Assumptions: An Interpretable Approach
- Title(参考訳): 偽推定による質問の特定と回答:解釈可能なアプローチ
- Authors: Zijie Wang, Eduardo Blanco,
- Abstract要約: いくつかの領域において、偽の仮定で質問を特定し、答えることに重点を置いている。
まず,その問題を事実検証に還元する方法について検討する。
そこで我々は,幻覚を緩和するために外部証拠を活用するアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.58372969204432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People often ask questions with false assumptions, a type of question that does not have regular answers. Answering such questions require first identifying the false assumptions. Large Language Models (LLMs) often generate misleading answers because of hallucinations. In this paper, we focus on identifying and answering questions with false assumptions in several domains. We first investigate to reduce the problem to fact verification. Then, we present an approach leveraging external evidence to mitigate hallucinations. Experiments with five LLMs demonstrate that (1) incorporating retrieved evidence is beneficial and (2) generating and validating atomic assumptions yields more improvements and provides an interpretable answer by specifying the false assumptions.
- Abstract(参考訳): 人々はしばしば、通常の答えを持たない質問の一種である誤った仮定で質問する。
このような疑問に答えるには、まず偽の仮定を特定する必要がある。
大型言語モデル (LLM) はしばしば幻覚のために誤解を招く答えを生成する。
本稿では,いくつかの領域における疑似仮定による質問の特定と回答に焦点をあてる。
まず,その問題を事実検証に還元する方法について検討する。
そこで我々は,幻覚を緩和するために外部証拠を活用するアプローチを提案する。
5つの LLM を用いた実験では、(1) 得られた証拠を組み込むことが有用であり、(2) 原子の仮定の生成と検証によりさらなる改善が得られ、偽の仮定を指定して解釈可能な答えを提供する。
関連論文リスト
- Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Open-ended Commonsense Reasoning with Unrestricted Answer Scope [47.14397700770702]
Open-ended Commonsense Reasoning は、1) 回答候補の短いリスト、2) 事前定義された回答スコープを提供することなく、Commonsenseの問題を解決するものとして定義される。
本研究では,事前学習した言語モデルを用いて,外部知識に基づく推論経路を反復的に検索する。
推論パスは、常識的な質問に対する最も正確な答えを特定するのに役立つ。
論文 参考訳(メタデータ) (2023-10-18T02:45:54Z) - Chain-of-Verification Reduces Hallucination in Large Language Models [80.99318041981776]
言語モデルが与える反応を考慮し、誤りを訂正する能力について検討する。
モデルが最初に初期応答をドラフトするChain-of-Verification (CoVe) 法を開発した。
ウィキデータからクローズドブックMultiSpanQAまで,さまざまなタスクにおける幻覚の減少を示す。
論文 参考訳(メタデータ) (2023-09-20T17:50:55Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。