論文の概要: A novel hallucination classification framework
- arxiv url: http://arxiv.org/abs/2510.05189v1
- Date: Mon, 06 Oct 2025 09:54:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.90424
- Title: A novel hallucination classification framework
- Title(参考訳): 幻覚分類の新しい枠組み
- Authors: Maksym Zavhorodnii, Dmytro Dehtiarov, Anna Konovalenko,
- Abstract要約: 本研究では,大規模言語モデル(LLM)における幻覚の自動検出手法を提案する。
提案手法は,素早い工学的手法による系統分類と多様な幻覚の再現制御に基づく。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a novel methodology for the automatic detection of hallucinations generated during large language model (LLM) inference. The proposed approach is based on a systematic taxonomy and controlled reproduction of diverse hallucination types through prompt engineering. A dedicated hallucination dataset is subsequently mapped into a vector space using an embedding model and analyzed with unsupervised learning techniques in a reduced-dimensional representation of hallucinations with veridical responses. Quantitative evaluation of inter-centroid distances reveals a consistent correlation between the severity of informational distortion in hallucinations and their spatial divergence from the cluster of correct outputs. These findings provide theoretical and empirical evidence that even simple classification algorithms can reliably distinguish hallucinations from accurate responses within a single LLM, thereby offering a lightweight yet effective framework for improving model reliability.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)における幻覚の自動検出手法を提案する。
提案手法は,素早い工学的手法による系統分類と多様な幻覚の再現制御に基づく。
その後、埋め込みモデルを用いて専用幻覚データセットをベクトル空間にマッピングし、検証応答を伴う幻覚の低次元表現において教師なし学習手法を用いて解析する。
センタロイド間距離の定量的評価により,幻覚における情報歪みの重大度と,正しい出力のクラスタからの空間的ばらつきとの間には,一貫した相関関係が示された。
これらの結果は、単純な分類アルゴリズムでさえ、単一のLSM内の正確な応答から幻覚を確実に識別できるという理論的および実証的な証拠を与え、モデル信頼性を改善するための軽量で効果的なフレームワークを提供する。
関連論文リスト
- A Novel Differential Feature Learning for Effective Hallucination Detection and Classification [3.9060143123877844]
本稿では,適応的な層間特徴重み付けと差分特徴学習機構に,Projected Fusionブロックを統合したデュアルモデルアーキテクチャを提案する。
幻覚信号が高度にスパースな特徴部分集合に集中していることを示し,質問応答や対話タスクの精度を大幅に向上させることを実証した。
論文 参考訳(メタデータ) (2025-09-20T06:48:22Z) - Theoretical Foundations and Mitigation of Hallucination in Large Language Models [0.0]
LLM(英: Hallucination in Large Language Models)とは、入力や実世界の事実に忠実でないコンテンツの生成を指す用語である。
本稿では, LLMにおける幻覚の厳密な処理について述べる。
論文 参考訳(メタデータ) (2025-07-20T15:22:34Z) - Attention Head Embeddings with Trainable Deep Kernels for Hallucination Detection in LLMs [47.18623962083962]
大規模言語モデルにおける幻覚検出のための新しい手法を提案する。
その結果,幻覚応答は接地応答に比べて刺激からの偏差が小さいことがわかった。
本稿では,分布距離を原理的幻覚スコアとして用いたモデル固有検出法を提案する。
論文 参考訳(メタデータ) (2025-06-11T15:59:15Z) - MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。