論文の概要: HalluCana: Fixing LLM Hallucination with A Canary Lookahead
- arxiv url: http://arxiv.org/abs/2412.07965v1
- Date: Tue, 10 Dec 2024 23:09:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:02:59.913596
- Title: HalluCana: Fixing LLM Hallucination with A Canary Lookahead
- Title(参考訳): HalluCana:LLMの幻覚をカナリア・ルックアヘッドで修正する
- Authors: Tianyi Li, Erenay Dayanik, Shubhi Tyagi, Andrea Pierleoni,
- Abstract要約: HalluCanaは、Large Language Models(LLMs)の事実を検知し、修正するためのカナリアルックアヘッドである
我々は、時間的検出を支援するために、隠れた空間の内部事実表現を利用する。
バイオグラフィー生成では, 最大2.5倍に向上し, 計算量も6倍以上に短縮された。
- 参考スコア(独自算出の注目度): 7.7112525876630365
- License:
- Abstract: In this paper, we present HalluCana, a canary lookahead to detect and correct factuality hallucinations of Large Language Models (LLMs) in long-form generation. HalluCana detects and intervenes as soon as traces of hallucination emerge, during and even before generation. To support timely detection, we exploit the internal factuality representation in the LLM hidden space, where we investigate various proxies to the LLMs' factuality self-assessment, and discuss its relation to the models' context familiarity from their pre-training. On biography generation, our method improves generation quality by up to 2.5x, while consuming over 6 times less compute.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) の長期生成における事実性幻覚の検出と補正を行うカナリア・ルックアヘッドである HalluCana を提案する。
HalluCanaは、発生の前後に幻覚の痕跡が現れるとすぐに検出し、介入する。
時間的検出を支援するために,LLM隠れ空間における内的事実表現を利用して,LLMの事実性自己評価に対する様々なプロキシを調査し,その事前学習からモデルのコンテキスト親しみ度との関連性について議論する。
バイオグラフィー生成では, 最大2.5倍に向上し, 計算量も6倍以上に短縮された。
関連論文リスト
- Generation Constraint Scaling Can Mitigate Hallucination [29.25122358598193]
大型言語モデル(LLM)における幻覚は重要な課題である。
メモリ拡張LDMデコーダにおける生成を制約する読み出しベクトルを単純にスケーリングすることで、幻覚の緩和をトレーニング不要な方法で実現できることを実証的に示す。
本手法は、ウィキペディア風のバイオグラフィーエントリを生成するタスクにおいて、最先端のLLM編集方法よりも優れた幾何学的インスピレーションを与える。
論文 参考訳(メタデータ) (2024-07-23T23:58:19Z) - ANAH-v2: Scaling Analytical Hallucination Annotation of Large Language Models [65.12177400764506]
大規模言語モデル (LLM) は、様々な領域や広範囲のアプリケーションにまたがる、長い形式の質問応答タスクにおいて幻覚を示す。
現在の幻覚検出と緩和データセットはドメインやサイズによって制限されている。
本稿では,幻覚アノテーションデータセットを同時に,段階的にスケールアップする反復的自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T17:56:38Z) - LLM Internal States Reveal Hallucination Risk Faced With a Query [62.29558761326031]
人間は、クエリに直面したとき、私たちが知らないことを認識できる自己認識プロセスを持っています。
本稿では,大規模言語モデルが応答生成に先立って,自身の幻覚リスクを推定できるかどうかを検討する。
確率推定器により, LLM自己評価を利用して, 平均幻覚推定精度84.32%を達成する。
論文 参考訳(メタデータ) (2024-07-03T17:08:52Z) - InterrogateLLM: Zero-Resource Hallucination Detection in LLM-Generated Answers [12.427232123205671]
大きな言語モデル(LLM)は、現実的に聞こえる答えを発明するが、現実の真実から遠ざかる。
本稿では,大規模言語モデルにおける幻覚検出手法を提案する。
実験では,Llama-2に対する87%の幻覚が観察され,その際,外部知識に頼らずに81%のバランス精度が得られた。
論文 参考訳(メタデータ) (2024-03-05T11:50:01Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。