論文の概要: Do Large Language Models Know about Facts?
- arxiv url: http://arxiv.org/abs/2310.05177v1
- Date: Sun, 8 Oct 2023 14:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 11:43:34.050419
- Title: Do Large Language Models Know about Facts?
- Title(参考訳): 大きな言語モデルは事実を知っているか?
- Authors: Xuming Hu, Junzhe Chen, Xiaochuan Li, Yufei Guo, Lijie Wen, Philip S.
Yu, Zhijiang Guo
- Abstract要約: 大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
- 参考スコア(独自算出の注目度): 60.501902866946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have recently driven striking performance
improvements across a range of natural language processing tasks. The factual
knowledge acquired during pretraining and instruction tuning can be useful in
various downstream tasks, such as question answering, and language generation.
Unlike conventional Knowledge Bases (KBs) that explicitly store factual
knowledge, LLMs implicitly store facts in their parameters. Content generated
by the LLMs can often exhibit inaccuracies or deviations from the truth, due to
facts that can be incorrectly induced or become obsolete over time. To this
end, we aim to comprehensively evaluate the extent and scope of factual
knowledge within LLMs by designing the benchmark Pinocchio. Pinocchio contains
20K diverse factual questions that span different sources, timelines, domains,
regions, and languages. Furthermore, we investigate whether LLMs are able to
compose multiple facts, update factual knowledge temporally, reason over
multiple pieces of facts, identify subtle factual differences, and resist
adversarial examples. Extensive experiments on different sizes and types of
LLMs show that existing LLMs still lack factual knowledge and suffer from
various spurious correlations. We believe this is a critical bottleneck for
realizing trustworthy artificial intelligence. The dataset Pinocchio and our
codes will be publicly available.
- Abstract(参考訳): 大規模言語モデル(llms)は最近、さまざまな自然言語処理タスクにおける大幅なパフォーマンス向上を促している。
事前学習と指導訓練の間に得られた事実知識は、質問応答や言語生成など、様々な下流タスクに有用である。
事実知識を明示的に記憶する従来の知識ベース(KB)とは異なり、LLMは事実をパラメータに暗黙的に記憶する。
LLMが生成したコンテンツは、誤って引き起こされたり、時間の経過とともに時代遅れになったりする事実のために、真実からの不正確さや逸脱を示すことが多い。
そこで本研究では,Pinocchioベンチマークを設計し,LLM内の事実知識の範囲と範囲を総合的に評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
さらに,LLMが複数の事実を構成可能か,事実知識を時間的に更新可能か,複数の事実を推論可能か,微妙な事実差を識別可能か,敵の例に抵抗可能かを検討した。
異なるサイズと種類のLLMに関する大規模な実験は、既存のLLMにはまだ事実の知識がなく、様々な刺激的な相関に悩まされていることを示している。
これは、信頼できる人工知能を実現する上で重要なボトルネックであると考えています。
データセットpinocchioと私たちのコードは公開される予定だ。
関連論文リスト
- Scaling Laws for Fact Memorization of Large Language Models [67.94080978627363]
我々は,大規模言語モデルにおける事実知識のスケーリング法則と,異なる種類の事実を記憶する行動について分析する。
LLMの事実知識能力は,モデルサイズや訓練のエポックと線形かつ負の指数法則関係を持つことがわかった。
本研究は,LLMのファクト・ナレッジ・ナレッジ・ラーニングの能力と特徴を明らかにし,LLMのファクト・ナレッジ・アジュメンテーションの方向性を示した。
論文 参考訳(メタデータ) (2024-06-22T03:32:09Z) - What Matters in Memorizing and Recalling Facts? Multifaceted Benchmarks for Knowledge Probing in Language Models [15.057992220389604]
言語モデルは事実の知識を扱うのに苦労し、事実の幻覚の問題を呈する。
本稿では,エンコーダとデコーダを用いた事前学習言語モデルの知識リコール能力を評価するための知識探索ベンチマークBELIEF(ICL)を提案する。
非常に多様なプロンプトを持つMyriadLAMAを半自動で作成します。
論文 参考訳(メタデータ) (2024-06-18T05:11:35Z) - Prompting Large Language Models with Knowledge Graphs for Question Answering Involving Long-tail Facts [50.06633829833144]
大規模言語モデル(LLM)は、様々なNLPタスクを実行するのに効果的であるが、広範囲の現実世界の知識を必要とするタスクを扱うのに苦労する。
我々は,関連する疑問に答えるために,長期的事実の知識を必要とするベンチマークを提案する。
実験の結果,LLMだけでこれらの疑問に答えるのに苦労していることが明らかとなった。
論文 参考訳(メタデータ) (2024-05-10T15:10:20Z) - Towards Reliable Latent Knowledge Estimation in LLMs: In-Context Learning vs. Prompting Based Factual Knowledge Extraction [15.534647327246239]
大規模言語モデル(LLM)に埋め込まれた潜在知識を推定する手法を提案する。
我々は、LLMの文脈内学習能力を活用し、LLMが知識ベースに格納されている事実を知る範囲を推定する。
論文 参考訳(メタデータ) (2024-04-19T15:40:39Z) - KnowTuning: Knowledge-aware Fine-tuning for Large Language Models [83.5849717262019]
本研究では,LLMの微粒で粗粒な知識認識を改善するための知識認識ファインタニング(KnowTuning)手法を提案する。
KnowTuningは、きめ細かい事実評価の下で、より少ない事実エラー率で多くの事実を生成する。
論文 参考訳(メタデータ) (2024-02-17T02:54:32Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z) - Eva-KELLM: A New Benchmark for Evaluating Knowledge Editing of LLMs [54.22416829200613]
Eva-KELLMは、大規模言語モデルの知識編集を評価するための新しいベンチマークである。
実験結果から, 生文書を用いた知識編集手法は, 良好な結果を得るには有効ではないことが示唆された。
論文 参考訳(メタデータ) (2023-08-19T09:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。