論文の概要: Knowledge of Knowledge: Exploring Known-Unknowns Uncertainty with Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.13712v1
- Date: Tue, 23 May 2023 05:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 18:44:16.411381
- Title: Knowledge of Knowledge: Exploring Known-Unknowns Uncertainty with Large
Language Models
- Title(参考訳): 知識の知識:大言語モデルによる未知の未知の探索
- Authors: Alfonso Amayuelas, Liangming Pan, Wenhu Chen, William Wang
- Abstract要約: 本稿では,Large Language Models (LLM) の知識の理解と不確実性評価の文脈における能力について検討する。
本研究では,不確実性の原因を解明する新たな分類手法を提案する。
我々は,未知の問合せと未知の問合せの間の不確実性を表現するために,モデルの精度を測定する意味評価手法を作成する。
- 参考スコア(独自算出の注目度): 31.603633860922873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the capabilities of Large Language Models (LLMs) in
the context of understanding their own knowledge and measuring their
uncertainty. We argue this is an important feature for mitigating
hallucinations. Specifically, we focus on addressing \textit{known-unknown}
questions, characterized by high uncertainty due to the absence of definitive
answers. To facilitate our study, we collect a dataset with new Known-Unknown
Questions (KUQ) and propose a novel categorization scheme to elucidate the
sources of uncertainty. Subsequently, we assess the LLMs' ability to
differentiate between known and unknown questions and classify them
accordingly. Moreover, we evaluate the quality of their answers in an
Open-Ended QA setting. To quantify the uncertainty expressed in the answers, we
create a semantic evaluation method that measures the model's accuracy in
expressing uncertainty between known vs unknown questions.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) の知識の理解と不確実性評価の文脈における能力について検討する。
これは幻覚を緩和するための重要な機能である。
具体的には,不確定な回答がないことから,不確実性が高いことが特徴である。
本研究では,新しい未知の質問(KUQ)を用いたデータセットを収集し,不確実性の原因を解明する新たな分類手法を提案する。
その後、既知の質問と未知の質問を区別するllmsの能力を評価し、それに従って分類する。
さらに,オープンエンドQA設定で回答の質を評価する。
回答に表される不確かさを定量化するために,既知の質問と未知質問の間の不確実性を表現する際に,モデルの正確性を測定する意味的評価手法を提案する。
関連論文リスト
- Gotcha! Don't trick me with unanswerable questions! Self-aligning Large
Language Models for Responding to Unknown Questions [75.78536317322616]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Asking the Right Question at the Right Time: Human and Model Uncertainty
Guidance to Ask Clarification Questions [2.3838507844983248]
モデルの不確実性は、人間の明確化と探索の振る舞いを反映しないことを示す。
本稿では,モデル不確実性推定に基づく明確化問題の生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T16:15:30Z) - Examining LLMs' Uncertainty Expression Towards Questions Outside
Parametric Knowledge [35.067234242461545]
大規模言語モデル(LLM)は、適切な応答を生成するのに十分なパラメトリック知識が不足している状況において不確実性を表現する。
本研究の目的は,このような状況下でのLCMの行動の体系的調査であり,誠実さと役に立つことのトレードオフを強調することである。
論文 参考訳(メタデータ) (2023-11-16T10:02:40Z) - R-Tuning: Teaching Large Language Models to Refuse Unknown Questions [68.60002086172133]
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
このアプローチは、まずパラメトリック知識と命令チューニングデータの間の知識ギャップを識別することによって定式化される。
実験により、この新しい命令チューニングアプローチは、既知の質問に答えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - Improving the Reliability of Large Language Models by Leveraging
Uncertainty-Aware In-Context Learning [76.98542249776257]
大規模言語モデルはしばしば「ハロシン化」の課題に直面している
本研究では,不確実性に応答してモデルが出力を拡張あるいは拒否することを可能にする,不確実性を考慮したコンテキスト内学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T12:06:53Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z) - Uncertainty-based Visual Question Answering: Estimating Semantic
Inconsistency between Image and Knowledge Base [0.7081604594416336]
KVQAタスクは、画像や質問に対する理解だけでなく、追加の外部知識を必要とする質問に答えることを目的としている。
KVQAの最近の研究は、外部知識をマルチモーダル形式で注入し、より多くの知識が使用されるにつれて、無関係な情報が付加され、質問応答を混乱させる可能性がある。
論文 参考訳(メタデータ) (2022-07-27T01:58:29Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。