論文の概要: How Language Model Hallucinations Can Snowball
- arxiv url: http://arxiv.org/abs/2305.13534v1
- Date: Mon, 22 May 2023 23:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 20:10:23.796529
- Title: How Language Model Hallucinations Can Snowball
- Title(参考訳): 言語モデル幻覚は雪玉にどのように役立つか
- Authors: Muru Zhang, Ofir Press, William Merrill, Alisa Liu, Noah A. Smith
- Abstract要約: 言語モデルを用いた実践的な応用の大きなリスクは、誤った文を幻覚させる傾向があることである。
本稿では,ChatGPT と GPT-4 の3つのデータセットを構築した。
その結果,ChatGPTとGPT-4はそれぞれの誤りの67%と87%を識別できることがわかった。
- 参考スコア(独自算出の注目度): 42.80069385873057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major risk of using language models in practical applications is their
tendency to hallucinate incorrect statements. Hallucinations are often
attributed to knowledge gaps in LMs, but we hypothesize that in some cases,
when justifying previously generated hallucinations, LMs output false claims
that they can separately recognize as incorrect. We construct three
question-answering datasets where ChatGPT and GPT-4 often state an incorrect
answer and offer an explanation with at least one incorrect claim. Crucially,
we find that ChatGPT and GPT-4 can identify 67% and 87% of their own mistakes,
respectively. We refer to this phenomenon as hallucination snowballing: an LM
over-commits to early mistakes, leading to more mistakes that it otherwise
would not make.
- Abstract(参考訳): 言語モデルを実践的に使用する大きなリスクは、誤った文を幻覚させる傾向にある。
幻覚はしばしばlmsの知識のギャップに起因するが、ある場合において、以前に生成された幻覚を正当化すると、lmsは別々に誤認識できるという虚偽の主張を出力すると仮定する。
chatgpt と gpt-4 はしばしば不正確な答えを述べ、少なくとも1つの不正確な主張で説明を提供する3つの質問応答データセットを構築した。
重要なことに、ChatGPTとGPT-4はそれぞれの誤りの67%と87%を識別できる。
私たちはこの現象を幻覚雪玉 (hallucination snowballing) と呼んでいる。
関連論文リスト
- Trust Me, I'm Wrong: High-Certainty Hallucinations in LLMs [45.13670875211498]
LLM(Large Language Models)はしばしば、幻覚として知られる実世界の事実に根ざしていない出力を生成する。
モデルが正しい知識を持つ場合でも、高い確実性で幻覚できることを示す。
論文 参考訳(メタデータ) (2025-02-18T15:46:31Z) - Distinguishing Ignorance from Error in LLM Hallucinations [43.62904897907926]
モデルがパラメータに正しい答えを持たない場合、HK-と呼ばれる場合、HK+と呼ばれる必要な知識があるにもかかわらず、モデルが正しく答えない場合の2つのタイプの幻覚を区別する。
モデル固有の幻覚データセットの構築をモチベーションとし,異なるモデルが異なる例に幻覚を呈することを示す。
論文 参考訳(メタデータ) (2024-10-29T14:31:33Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z) - Fine-grained Hallucination Detection and Editing for Language Models [109.56911670376932]
大規模言語モデル(LM)は、しばしば幻覚と呼ばれる事実的誤りを引き起こす傾向にある。
我々は,幻覚の包括的分類を導入し,幻覚が多様な形態で現れることを議論する。
本稿では, 幻覚自動検出のための新しいタスクを提案し, 新たな評価ベンチマークであるFavaBenchを構築した。
論文 参考訳(メタデータ) (2024-01-12T19:02:48Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - Evaluating Hallucinations in Chinese Large Language Models [65.4771562909392]
我々は,中国大言語モデルにおける幻覚現象を測定するために,HaluQA(中国語幻覚質問回答)というベンチマークを構築した。
GLM-130B と ChatGPT の2種類の幻覚について考察した。
評価のために,モデル出力が幻覚的かどうかを判定するために,GPT-4を用いた自動評価手法を設計する。
論文 参考訳(メタデータ) (2023-10-05T07:57:09Z) - Do Language Models Know When They're Hallucinating References? [30.36532062084063]
State-of-the-art Language Model (LM) は、幻覚情報を生成するのに非常に敏感である。
我々は、幻覚書や記事参照に焦点をあて、それらを言語モデル幻覚研究の「モデル」として提示する。
論文 参考訳(メタデータ) (2023-05-29T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。