論文の概要: Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning
- arxiv url: http://arxiv.org/abs/2310.04782v1
- Date: Sat, 7 Oct 2023 12:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:35:38.933363
- Title: Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning
- Title(参考訳): 不確実性を考慮したインコンテキスト学習による大規模言語モデルの信頼性向上
- Authors: Yuchen Yang, Houqiang Li, Yanfeng Wang and Yu Wang
- Abstract要約: 大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 76.98542249776257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, large-scale language models (LLMs) have gained attention for
their impressive text generation capabilities. However, these models often face
the challenge of "hallucination," which undermines their reliability. In this
study, we introduce an uncertainty-aware in-context learning framework to
empower the model to enhance or reject its output in response to uncertainty.
Human-defined methods for estimating uncertainty typically assume that
"uncertainty is lower when the model's response is correct compared to when it
is incorrect." However, setting a precise threshold to distinguish correctness
is challenging. Therefore, we introduce uncertainty information as an
intermediary variable that implicitly influences the model's behavior. Our
innovative uncertainty-aware in-context learning framework involves fine-tuning
the LLM using a calibration dataset. Our aim is to improve the model's
responses by filtering out answers with high uncertainty while considering the
model's knowledge limitations. We evaluate the model's knowledge by examining
multiple responses to the same question for the presence of a correct answer.
When the model lacks relevant knowledge, the response should indicate that the
question cannot be answered. Conversely, when the model has relevant knowledge,
the response should provide the correct answer. Extensive experiments confirm
the effectiveness of our framework, leading to two key findings. First, the
logit output values of the LLM partly reflect inherent uncertainty. Second, our
model autonomously recognizes uncertainty, resulting in improved responses.
- Abstract(参考訳): 近年、大規模言語モデル(llm)は、その印象的なテキスト生成機能で注目を集めている。
しかし、これらのモデルは、信頼性を損なう「幻覚」の課題に直面することが多い。
本研究では,不確実性に応答してモデルが出力を増強あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
人間の定義した不確実性を推定する手法は、一般に「不確かさはモデルの反応が正しいときよりも低い」と仮定する。
しかし、正確さを区別するために正確な閾値を設定することは困難である。
そこで,モデル行動に暗黙的に影響を及ぼす中間変数として不確実性情報を導入する。
我々の革新的な不確実性を考慮したインコンテキスト学習フレームワークは、キャリブレーションデータセットを使用してLLMを微調整する。
本研究の目的は,モデルの知識制限を考慮しつつ,不確実性の高い回答をフィルタリングすることで,モデルの応答を改善することである。
我々は,同じ質問に対する複数の応答を正解の有無で検証することにより,モデルの知識を評価する。
モデルに関連する知識がない場合、応答は質問に答えられないことを示すべきである。
逆に、モデルが関連する知識を持っている場合、応答は正しい答えを提供するべきである。
大規模な実験により,本フレームワークの有効性が確認された。
まず、LLMのロジット出力値は、固有の不確実性を部分的に反映する。
第2に,モデルが不確実性を自律的に認識することで,応答性が向上する。
関連論文リスト
- Distinguishing the Knowable from the Unknowable with Language Models [15.471748481627143]
地中真理確率の欠如において、与えられた不確実性を解き放つために、より大きなモデルが地中真理の代用として現れるような設定を探索する。
凍結, 事前訓練されたモデルの埋め込みを訓練した小さな線形プローブが, トークンレベルでより大きなモデルがより自信を持つようになる時期を正確に予測することを示した。
我々は,同じタスクにおいて非自明な精度を実現する,完全に教師なしの手法を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:22:49Z) - Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - R-Tuning: Teaching Large Language Models to Refuse Unknown Questions [68.60002086172133]
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
このアプローチは、まずパラメトリック知識と命令チューニングデータの間の知識ギャップを識別することによって定式化される。
実験により、この新しい命令チューニングアプローチは、既知の質問に答えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - ALUM: Adversarial Data Uncertainty Modeling from Latent Model
Uncertainty Compensation [25.67258563807856]
本稿では,モデル不確実性とデータ不確実性を扱うALUMという新しい手法を提案する。
提案するALUMはモデルに依存しないため,オーバーヘッドの少ない既存のディープモデルに容易に実装できる。
論文 参考訳(メタデータ) (2023-03-29T17:24:12Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - How Can We Know When Language Models Know? On the Calibration of
Language Models for Question Answering [80.82194311274694]
言語モデルがいつ、自信を持って、特定のクエリに対する答えを知っているか、どのように知ることができるか?
我々は,T5,BART,GPT-2の3つの強力な生成モデルを検討した。
次に、そのようなモデルの校正方法を検討し、その信頼性スコアを正しさの確率と相関させる。
論文 参考訳(メタデータ) (2020-12-02T03:53:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。