論文の概要: Do Androids Know They're Only Dreaming of Electric Sheep?
- arxiv url: http://arxiv.org/abs/2312.17249v1
- Date: Thu, 28 Dec 2023 18:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 14:35:43.257121
- Title: Do Androids Know They're Only Dreaming of Electric Sheep?
- Title(参考訳): アンドロイドはただの電気羊の夢だと知ってますか?
- Authors: Sky CH-Wang, Benjamin Van Durme, Jason Eisner, Chris Kedzie
- Abstract要約: いくつかのタスクで有機および合成幻覚のスパンアノテートデータセットを作成します。
合成幻覚の強制復号化状態で訓練されたプローブは、一般に有機幻覚検出において生態的に無効であることがわかった。
- 参考スコア(独自算出の注目度): 49.72015518385204
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We design probes trained on the internal representations of a transformer
language model that are predictive of its hallucinatory behavior on in-context
generation tasks. To facilitate this detection, we create a span-annotated
dataset of organic and synthetic hallucinations over several tasks. We find
that probes trained on the force-decoded states of synthetic hallucinations are
generally ecologically invalid in organic hallucination detection. Furthermore,
hidden state information about hallucination appears to be task and
distribution-dependent. Intrinsic and extrinsic hallucination saliency varies
across layers, hidden state types, and tasks; notably, extrinsic hallucinations
tend to be more salient in a transformer's internal representations.
Outperforming multiple contemporary baselines, we show that probing is a
feasible and efficient alternative to language model hallucination evaluation
when model states are available.
- Abstract(参考訳): 我々は,インコンテキスト生成タスクにおける幻覚行動を予測するトランスフォーマー言語モデルの内部表現を学習したプローブを設計した。
この検出を容易にするために、複数のタスクにまたがる有機および合成幻覚のスパンアノテートデータセットを作成する。
有機幻覚検出において,合成幻覚の強制復号状態に基づくプローブは一般的に生態学的に無効であることがわかった。
さらに、幻覚に関する隠れた状態情報は、タスクと配布に依存します。
内在的および外在的な幻覚は、階層、隠れた状態タイプ、タスクによって異なり、特に、外在的幻覚はトランスフォーマーの内部表現においてより顕著である傾向がある。
複数の現代ベースラインを達成し、モデル状態が利用できる場合の言語モデル幻覚評価に対して、探索は実現可能かつ効率的な代替手段であることを示す。
関連論文リスト
- Pre-Training Multimodal Hallucination Detectors with Corrupted Grounding Data [4.636499986218049]
マルチモーダル言語モデルは、その出力に幻覚を示し、信頼性を制限できる。
本稿では, 崩壊した地盤データを作成することにより, これらのモデルのサンプル効率を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-08-30T20:11:00Z) - Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability [83.0884072598828]
幻覚は多くの形式があり、普遍的に受け入れられる定義はない。
トレーニングセットにおいて、正しい回答が冗長に現れるような幻覚のみを研究することに集中する。
固定されたデータセットの場合、より大きく長く訓練されたLMは幻覚を少なくする。
固定されたLMの出力の検出器サイズが向上するのに対して、LMのスケールと幻覚の検出可能性との間には逆の関係がある。
論文 参考訳(メタデータ) (2024-08-14T23:34:28Z) - ANAH-v2: Scaling Analytical Hallucination Annotation of Large Language Models [65.12177400764506]
大規模言語モデル (LLM) は、様々な領域や広範囲のアプリケーションにまたがる、長い形式の質問応答タスクにおいて幻覚を示す。
現在の幻覚検出と緩和データセットはドメインやサイズによって制限されている。
本稿では,幻覚アノテーションデータセットを同時に,段階的にスケールアップする反復的自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T17:56:38Z) - Mitigating Large Language Model Hallucination with Faithful Finetuning [46.33663932554782]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
彼らは「幻覚」として知られる、流動的で不合理な反応を生み出す傾向にある
論文 参考訳(メタデータ) (2024-06-17T07:16:07Z) - AutoHallusion: Automatic Generation of Hallucination Benchmarks for Vision-Language Models [91.78328878860003]
視覚言語モデル(LVLM)は幻覚の傾向が強い。
ベンチマークは多くの場合、障害パターンが一般化できない手作りのコーナーケースに依存します。
最初の自動ベンチマーク生成手法であるAutoHallusionを開発した。
論文 参考訳(メタデータ) (2024-06-16T11:44:43Z) - Fine-grained Hallucination Detection and Editing for Language Models [109.56911670376932]
大規模言語モデル(LM)は、しばしば幻覚と呼ばれる事実的誤りを引き起こす傾向にある。
我々は,幻覚の包括的分類を導入し,幻覚が多様な形態で現れることを議論する。
本稿では, 幻覚自動検出のための新しいタスクを提案し, 新たな評価ベンチマークであるFavaBenchを構築した。
論文 参考訳(メタデータ) (2024-01-12T19:02:48Z) - On Early Detection of Hallucinations in Factual Question Answering [4.76359068115052]
幻覚は依然として ユーザーの信頼を得るための大きな障害です
本研究では、モデル生成に関連するアーティファクトが、生成が幻覚を含むことを示すヒントを提供することができるかどうかを探索する。
以上の結果から,これらのアーティファクトの分布は,ハロゲン化世代と非ハロゲン化世代の違いが示唆された。
論文 参考訳(メタデータ) (2023-12-19T14:35:04Z) - Plausible May Not Be Faithful: Probing Object Hallucination in
Vision-Language Pre-training [66.0036211069513]
大規模視覚言語事前学習モデルは、テキストを生成する際に、存在しない視覚オブジェクトを幻覚させる傾向がある。
標準メトリクスでより良いスコアを得るモデルは、オブジェクトをより頻繁に幻覚させる可能性があることを示す。
驚いたことに、パッチベースの機能が最も良く、より小さなパッチ解決は、オブジェクト幻覚の非自明な減少をもたらす。
論文 参考訳(メタデータ) (2022-10-14T10:27:22Z) - Looking for a Needle in a Haystack: A Comprehensive Study of
Hallucinations in Neural Machine Translation [17.102338932907294]
我々はNMT幻覚研究の基礎を設定した。
テスト時に幻覚を緩和する簡単な方法であるDeHallucinatorを提案する。
論文 参考訳(メタデータ) (2022-08-10T12:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。