論文の概要: Distinguishing Ignorance from Error in LLM Hallucinations
- arxiv url: http://arxiv.org/abs/2410.22071v1
- Date: Tue, 29 Oct 2024 14:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:58.264101
- Title: Distinguishing Ignorance from Error in LLM Hallucinations
- Title(参考訳): LLM幻覚における誤りの排除
- Authors: Adi Simhi, Jonathan Herzig, Idan Szpektor, Yonatan Belinkov,
- Abstract要約: 我々は,2種類の幻覚の区別について,これまでの研究が完全には対応していない,クローズブック質問回答(CBQA)に焦点を当てた。
これらの症例の鑑別は幻覚の検出と緩和に不可欠である。
- 参考スコア(独自算出の注目度): 43.62904897907926
- License:
- Abstract: Large language models (LLMs) are susceptible to hallucinations-outputs that are ungrounded, factually incorrect, or inconsistent with prior generations. We focus on close-book Question Answering (CBQA), where previous work has not fully addressed the distinction between two possible kinds of hallucinations, namely, whether the model (1) does not hold the correct answer in its parameters or (2) answers incorrectly despite having the required knowledge. We argue that distinguishing these cases is crucial for detecting and mitigating hallucinations. Specifically, case (2) may be mitigated by intervening in the model's internal computation, as the knowledge resides within the model's parameters. In contrast, in case (1) there is no parametric knowledge to leverage for mitigation, so it should be addressed by resorting to an external knowledge source or abstaining. To help distinguish between the two cases, we introduce Wrong Answer despite having Correct Knowledge (WACK), an approach for constructing model-specific datasets for the second hallucination type. Our probing experiments indicate that the two kinds of hallucinations are represented differently in the model's inner states. Next, we show that datasets constructed using WACK exhibit variations across models, demonstrating that even when models share knowledge of certain facts, they still vary in the specific examples that lead to hallucinations. Finally, we show that training a probe on our WACK datasets leads to better hallucination detection of case (2) hallucinations than using the common generic one-size-fits-all datasets. The code is available at https://github.com/technion-cs-nlp/hallucination-mitigation .
- Abstract(参考訳): 大型言語モデル (LLMs) は幻覚のアウトプットに影響を受けやすいが、非基底的、事実的に間違っている、あるいは以前の世代と矛盾しない。
本研究は,(1) モデルがパラメータに正しい答えを持たないのか,(2) 必要な知識を持てなかったのか,という 2 種類の幻覚の区別に,先行研究が完全に対応していないクローズブック質問回答(CBQA)に焦点を当てる。
これらの症例の鑑別は幻覚の検出と緩和に不可欠である。
具体的には、ケース(2)は、モデルのパラメータ内に知識が存在するため、モデルの内部計算に介入することで緩和することができる。
対照的に、(1) の場合、緩和に活用するパラメトリック知識は存在しないため、外部の知識源に頼ったり、中断することで対処すべきである。
2つのケースを区別するために、第2の幻覚型のためのモデル固有のデータセットを構築するアプローチである正しい知識(WACK)があるにもかかわらず、Wrong Answerを導入する。
我々の探索実験は、2種類の幻覚がモデルの内部状態において異なる形で表現されていることを示唆している。
次に、WACKを用いて構築されたデータセットは、モデル間でバリエーションを示し、モデルが特定の事実の知識を共有している場合でも、幻覚につながる特定の例に変化があることを示す。
最後に、WACKデータセット上でプローブのトレーニングを行うことで、一般的な1サイズ全データセットを使用する場合よりも、ケース(2)幻覚の幻覚検出がより優れていることを示す。
コードはhttps://github.com/technion-cs-nlp/hallucination-mitigationで公開されている。
関連論文リスト
- Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability [83.0884072598828]
幻覚は多くの形式があり、普遍的に受け入れられる定義はない。
トレーニングセットにおいて、正しい回答が冗長に現れるような幻覚のみを研究することに集中する。
固定されたデータセットの場合、より大きく長く訓練されたLMは幻覚を少なくする。
固定されたLMの出力の検出器サイズが向上するのに対して、LMのスケールと幻覚の検出可能性との間には逆の関係がある。
論文 参考訳(メタデータ) (2024-08-14T23:34:28Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - Mitigating Large Language Model Hallucination with Faithful Finetuning [46.33663932554782]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
彼らは「幻覚」として知られる、流動的で不合理な反応を生み出す傾向にある
論文 参考訳(メタデータ) (2024-06-17T07:16:07Z) - On Large Language Models' Hallucination with Regard to Known Facts [74.96789694959894]
大規模な言語モデルはファクトイドの質問に答えることに成功したが、幻覚を起こす傾向がある。
正しい解答知識を持つLLMの現象を推論力学の観点から検討する。
我々の研究は、LLMの幻覚が既知の事実について、そしてより重要なのは、幻覚を正確に予測する理由を理解することに光を当てた。
論文 参考訳(メタデータ) (2024-03-29T06:48:30Z) - Unfamiliar Finetuning Examples Control How Language Models Hallucinate [75.03210107477157]
大規模な言語モデルは、馴染みのないクエリに直面した時に幻覚化することが知られている。
モデルの微調整データの見慣れない例は、これらのエラーを形作るのに不可欠である。
本研究は,RLファインタニング戦略をさらに研究し,長大なモデル生成の現実性を改善することを目的とする。
論文 参考訳(メタデータ) (2024-03-08T18:28:13Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - HalluciDoctor: Mitigating Hallucinatory Toxicity in Visual Instruction Data [102.56792377624927]
機械生成データに固有の幻覚は未発見のままである。
本稿では,クロスチェックパラダイムに基づく新しい幻覚検出・除去フレームワークであるHaluciDoctorを提案する。
LLaVAに比べて44.6%の幻覚を緩和し,競争性能を維持した。
論文 参考訳(メタデータ) (2023-11-22T04:52:58Z) - On the Origin of Hallucinations in Conversational Models: Is it the
Datasets or the Models? [32.41234580068662]
既存の知識基盤型対話型ベンチマークといくつかの最先端モデルについて検討する。
標準ベンチマークは60%以上の幻覚応答で構成されており、幻覚だけでなく幻覚を増幅するモデルにつながっている。
この結果から,既存のデータセットやモデルの品質に関する重要な疑問が浮かび上がっている。
論文 参考訳(メタデータ) (2022-04-17T05:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。