論文の概要: Knowledge of Knowledge: Exploring Known-Unknowns Uncertainty with Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.13712v1
- Date: Tue, 23 May 2023 05:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 18:44:16.411381
- Title: Knowledge of Knowledge: Exploring Known-Unknowns Uncertainty with Large
Language Models
- Title(参考訳): 知識の知識:大言語モデルによる未知の未知の探索
- Authors: Alfonso Amayuelas, Liangming Pan, Wenhu Chen, William Wang
- Abstract要約: 本稿では,Large Language Models (LLM) の知識の理解と不確実性評価の文脈における能力について検討する。
本研究では,不確実性の原因を解明する新たな分類手法を提案する。
我々は,未知の問合せと未知の問合せの間の不確実性を表現するために,モデルの精度を測定する意味評価手法を作成する。
- 参考スコア(独自算出の注目度): 31.603633860922873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the capabilities of Large Language Models (LLMs) in
the context of understanding their own knowledge and measuring their
uncertainty. We argue this is an important feature for mitigating
hallucinations. Specifically, we focus on addressing \textit{known-unknown}
questions, characterized by high uncertainty due to the absence of definitive
answers. To facilitate our study, we collect a dataset with new Known-Unknown
Questions (KUQ) and propose a novel categorization scheme to elucidate the
sources of uncertainty. Subsequently, we assess the LLMs' ability to
differentiate between known and unknown questions and classify them
accordingly. Moreover, we evaluate the quality of their answers in an
Open-Ended QA setting. To quantify the uncertainty expressed in the answers, we
create a semantic evaluation method that measures the model's accuracy in
expressing uncertainty between known vs unknown questions.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) の知識の理解と不確実性評価の文脈における能力について検討する。
これは幻覚を緩和するための重要な機能である。
具体的には,不確定な回答がないことから,不確実性が高いことが特徴である。
本研究では,新しい未知の質問(KUQ)を用いたデータセットを収集し,不確実性の原因を解明する新たな分類手法を提案する。
その後、既知の質問と未知の質問を区別するllmsの能力を評価し、それに従って分類する。
さらに,オープンエンドQA設定で回答の質を評価する。
回答に表される不確かさを定量化するために,既知の質問と未知質問の間の不確実性を表現する際に,モデルの正確性を測定する意味的評価手法を提案する。
関連論文リスト
- Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models [55.332004960574004]
大規模言語モデル(LLM)は意思決定に広く使用されているが、特に医療などの重要なタスクにおける信頼性は十分に確立されていない。
本稿では,LSMが生成する応答の不確実性が,入力プロンプトで提供される情報とどのように関連しているかを検討する。
本稿では,LLMが応答を生成する方法を説明し,プロンプトと応答の不確実性の関係を理解するためのプロンプト応答の概念モデルを提案する。
論文 参考訳(メタデータ) (2024-07-20T11:19:58Z) - Know the Unknown: An Uncertainty-Sensitive Method for LLM Instruction Tuning [18.283963879468466]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚のような課題に直面している。
本研究では,モデルの知識境界を認識する能力を向上させるために,不確実性感性チューニングと呼ばれる新しい手法を提案する。
実験結果から,提案手法が不確実性領域の同定能力を高めることが示唆された。
論文 参考訳(メタデータ) (2024-06-14T14:56:04Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Rejection Improves Reliability: Training LLMs to Refuse Unknown Questions Using RL from Knowledge Feedback [14.120154004011084]
LLM(Large Language Models)はしばしば幻覚と呼ばれる誤った出力を生成する。
知識フィードバックによる強化学習(Reinforcement Learning from Knowledge Feedback, RLKF)と呼ばれる新しいアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T08:39:56Z) - Examining LLMs' Uncertainty Expression Towards Questions Outside
Parametric Knowledge [35.067234242461545]
大規模言語モデル(LLM)は、適切な応答を生成するのに十分なパラメトリック知識が不足している状況において不確実性を表現する。
本研究の目的は,このような状況下でのLCMの行動の体系的調査であり,誠実さと役に立つことのトレードオフを強調することである。
論文 参考訳(メタデータ) (2023-11-16T10:02:40Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。