論文の概要: Uncertainty-aware Language Modeling for Selective Question Answering
- arxiv url: http://arxiv.org/abs/2311.15451v1
- Date: Sun, 26 Nov 2023 22:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 17:27:11.957062
- Title: Uncertainty-aware Language Modeling for Selective Question Answering
- Title(参考訳): 選択質問応答のための不確かさ認識言語モデリング
- Authors: Qi Yang, Shreya Ravikumar, Fynn Schmitt-Ulms, Satvik Lolla, Ege Demir,
Iaroslav Elistratov, Alex Lavaee, Sadhana Lolla, Elaheh Ahmadi, Daniela Rus,
Alexander Amini, Alejandro Perez
- Abstract要約: 本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
- 参考スコア(独自算出の注目度): 107.47864420630923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an automatic large language model (LLM) conversion approach that
produces uncertainty-aware LLMs capable of estimating uncertainty with every
prediction. Our approach is model- and data-agnostic, is
computationally-efficient, and does not rely on external models or systems. We
evaluate converted models on the selective question answering setting -- to
answer as many questions as possible while maintaining a given accuracy,
forgoing providing predictions when necessary. As part of our results, we test
BERT and Llama 2 model variants on the SQuAD extractive QA task and the
TruthfulQA generative QA task. We show that using the uncertainty estimates
provided by our approach to selectively answer questions leads to significantly
higher accuracy over directly using model probabilities.
- Abstract(参考訳): 本稿では,予測毎に不確実性を推定できる不確実性認識型LLMを自動大言語モデル(LLM)変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
任意の精度を維持しながら、可能な限り多くの質問に答えるために、選択された質問応答設定で変換されたモデルを評価する。
本研究は,SQuAD抽出QAタスクとTruthfulQA生成QAタスクを用いてBERTおよびLlama 2モデル変異体を試験した。
提案手法により得られた不確実性推定値を用いることで,モデル確率を用いた場合よりも精度が著しく向上することを示す。
関連論文リスト
- Calibrated Large Language Models for Binary Question Answering [49.1574468325115]
よく校正されたモデルは、その予測が正しい可能性を正確に反映する確率を生成するべきである。
本稿では、帰納的Venn-Abers予測器(IVAP)を用いて、バイナリラベルに対応する出力トークンに関連する確率をキャリブレーションする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T09:31:03Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Realistic Conversational Question Answering with Answer Selection based
on Calibrated Confidence and Uncertainty Measurement [54.55643652781891]
対話型質問回答モデル(ConvQA)は,会話中に複数回発生した質問文と過去の質問文のペアを用いて質問に回答することを目的としている。
本稿では,会話履歴における不正確な回答を,ConvQAモデルから推定された信頼度と不確実性に基づいてフィルタリングすることを提案する。
我々は2つの標準ConvQAデータセット上で、回答選択に基づくリアルな会話質問回答モデルの有効性を検証する。
論文 参考訳(メタデータ) (2023-02-10T09:42:07Z) - How Can We Know When Language Models Know? On the Calibration of
Language Models for Question Answering [80.82194311274694]
言語モデルがいつ、自信を持って、特定のクエリに対する答えを知っているか、どのように知ることができるか?
我々は,T5,BART,GPT-2の3つの強力な生成モデルを検討した。
次に、そのようなモデルの校正方法を検討し、その信頼性スコアを正しさの確率と相関させる。
論文 参考訳(メタデータ) (2020-12-02T03:53:13Z) - Selective Question Answering under Domain Shift [90.021577320085]
モデルがドメイン外の入力に対して過度に信頼されているため、モデルのソフトマックス確率のみに基づくアテンションポリシーは不適切である。
キャリブレータをトレーニングして、QAモデルがアースする入力を識別し、エラーを予測した場合に停止する。
提案手法は,80%の精度を維持しながら56%の質問に回答するが,それに対してモデルの確率を直接使用する場合,80%の精度で48%しか回答しない。
論文 参考訳(メタデータ) (2020-06-16T19:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。