論文の概要: Detecting (Un)answerability in Large Language Models with Linear Directions
- arxiv url: http://arxiv.org/abs/2509.22449v1
- Date: Fri, 26 Sep 2025 15:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.52991
- Title: Detecting (Un)answerability in Large Language Models with Linear Directions
- Title(参考訳): 線形方向を用いた大規模言語モデルの解答可能性の検出
- Authors: Maor Juliet Lavi, Tova Milo, Mor Geva,
- Abstract要約: 大きな言語モデル(LLM)は、必要な情報がなくても、しばしば疑問に対して自信を持って反応し、幻覚的な答えをもたらす。
抽出質問応答(QA)に着目した解答可能性検出の問題点について検討する。
本稿では,モデルのアクティベーション空間の方向を特定するための簡単な手法を提案する。
- 参考スコア(独自算出の注目度): 28.195817689912705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) often respond confidently to questions even when they lack the necessary information, leading to hallucinated answers. In this work, we study the problem of (un)answerability detection, focusing on extractive question answering (QA) where the model should determine if a passage contains sufficient information to answer a given question. We propose a simple approach for identifying a direction in the model's activation space that captures unanswerability and uses it for classification. This direction is selected by applying activation additions during inference and measuring their impact on the model's abstention behavior. We show that projecting hidden activations onto this direction yields a reliable score for (un)answerability classification. Experiments on two open-weight LLMs and four extractive QA benchmarks show that our method effectively detects unanswerable questions and generalizes better across datasets than existing prompt-based and classifier-based approaches. Moreover, the obtained directions extend beyond extractive QA to unanswerability that stems from factors, such as lack of scientific consensus and subjectivity. Last, causal interventions show that adding or ablating the directions effectively controls the abstention behavior of the model.
- Abstract(参考訳): 大きな言語モデル(LLM)は、必要な情報がなくても、しばしば疑問に対して自信を持って反応し、幻覚的な答えをもたらす。
そこで本研究では,ある質問に回答するのに十分な情報を含むか否かをモデルが判断する抽出的質問応答(QA)に着目し,解答可能性検出の問題について検討する。
本稿では,モデルのアクティベーション空間の方向を特定するための簡単な手法を提案する。
この方向は、推論中にアクティベーション加算を適用し、モデルの禁忌行動への影響を測定することで選択される。
この方向に隠れたアクティベーションを投影すると、解答不可能な分類のための信頼性の高いスコアが得られることを示す。
2つのオープンウェイトLCMと4つの抽出QAベンチマークによる実験により,提案手法は既存のプロンプトベースや分類器ベースアプローチよりも解答不能な質問を効果的に検出し,データセット間を一般化することを示した。
さらに、得られた方向は、抽出されたQAを超えて、科学的コンセンサスや主観性の欠如などの要因から生じる未解決性にまで拡張される。
最後に、因果的介入は、方向の追加または非難がモデルの禁忌動作を効果的に制御することを示している。
関連論文リスト
- Uncertainty Quantification in Retrieval Augmented Question Answering [45.573346610161195]
本稿では,QAモデルが備える通路の有効性を推定することで,QAモデルの不確実性を定量化する。
我々は、目標QAモデルの通過効率を予測するために軽量ニューラルネットワークを訓練し、単純な情報理論のメトリクスが解の正しさをある程度予測できる一方で、より高価なサンプリングベースの手法を効率的に近似または上回ることを示す。
論文 参考訳(メタデータ) (2025-02-25T11:24:52Z) - SUGAR: Leveraging Contextual Confidence for Smarter Retrieval [28.552283701883766]
セマンティック不確実性誘導適応検索(SUGAR)について紹介する。
我々は、文脈に基づくエントロピーを利用して、検索するかどうかを積極的に決定し、シングルステップとマルチステップの検索を更に決定する。
実験の結果,意味的不確実性推定によって導かれる選択探索により,多様な質問応答タスクのパフォーマンスが向上し,より効率的な推論が達成された。
論文 参考訳(メタデータ) (2025-01-09T01:24:59Z) - Pointwise Mutual Information as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
文脈と問合せの間のポイントワイドな相互情報は,言語モデルの性能向上に有効な指標であることを示す。
本稿では,文書と質問のポイントワイドな相互情報を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - LLM Uncertainty Quantification through Directional Entailment Graph and Claim Level Response Augmentation [5.255129053741665]
大規模言語モデル(LLM)は、基本質問応答(QA)に起因して、様々な領域にわたる高度なタスクにおいて優れた機能を示した。
そこで,本稿では,包含確率から方向グラフを構築することにより,方向不安定性を捉える不確実性を評価する新しい手法を提案する。
また、提案したレイヤに既存の作業のセマンティクスの不確実性を統合する方法も提供します。
論文 参考訳(メタデータ) (2024-07-01T06:11:30Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Knowledge-Based Counterfactual Queries for Visual Question Answering [0.0]
本稿では,VQAモデルの動作を説明するための系統的手法を提案する。
そこで我々は,言語的モダリティをターゲットとした決定論的,最適,制御可能な単語レベルの置換を行うために,構造化知識ベースを利用する。
次に、そのような反実的な入力に対するモデルの応答を評価する。
論文 参考訳(メタデータ) (2023-03-05T08:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。