論文の概要: Can LLMs Detect Their Own Hallucinations?
- arxiv url: http://arxiv.org/abs/2511.11087v1
- Date: Fri, 14 Nov 2025 09:03:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.512079
- Title: Can LLMs Detect Their Own Hallucinations?
- Title(参考訳): LLMは自分の幻覚を検出できるのか?
- Authors: Sora Kadotani, Kosuke Nishida, Kyosuke Nishida,
- Abstract要約: 大規模言語モデル(LLM)は、流動的な応答を生成するが、時には幻覚的な事実を生成する。
文の分類タスクとして幻覚検出を定式化する。
本研究では,LLMの幻覚検出能力を評価するためのフレームワークと,そのパラメータから知識を抽出するためにChain-of-Thought (CoT) を用いた分類手法を提案する。
- 参考スコア(独自算出の注目度): 13.071420274309551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) can generate fluent responses, but sometimes hallucinate facts. In this paper, we investigate whether LLMs can detect their own hallucinations. We formulate hallucination detection as a classification task of a sentence. We propose a framework for estimating LLMs' capability of hallucination detection and a classification method using Chain-of-Thought (CoT) to extract knowledge from their parameters. The experimental results indicated that GPT-$3.5$ Turbo with CoT detected $58.2\%$ of its own hallucinations. We concluded that LLMs with CoT can detect hallucinations if sufficient knowledge is contained in their parameters.
- Abstract(参考訳): 大規模言語モデル(LLM)は、流動的な応答を生成するが、時には幻覚的な事実を生成する。
本稿では,LLMが自身の幻覚を検出できるかどうかを検討する。
文の分類タスクとして幻覚検出を定式化する。
本研究では,LLMの幻覚検出能力を評価するためのフレームワークと,そのパラメータから知識を抽出するためにChain-of-Thought (CoT) を用いた分類手法を提案する。
実験の結果、GPT-$3.5$ TurboとCoTは58.2\%の幻覚を検出できた。
我々は,COTを用いたLLMは,そのパラメータに十分な知識が組み込まれている場合,幻覚を検出することができると結論付けた。
関連論文リスト
- Can Hallucinations Help? Boosting LLMs for Drug Discovery [8.960425754918974]
大きな言語モデル(LLM)における幻覚は、しばしば望ましくないと見なされる。
幻覚はいくつかのモデルにおいて予測精度を大幅に向上させる。
我々は18,000以上の有益な幻覚を分類し、最も影響のあるタイプとして構造的誤記が現れる。
論文 参考訳(メタデータ) (2025-01-23T16:45:51Z) - MedHalu: Hallucinations in Responses to Healthcare Queries by Large Language Models [26.464489158584463]
大規模言語モデル(LLM)は、Web検索のような伝統的な情報探索メカニズムを補完し始めている。
LLMは幻覚を起こす傾向があり、不正確な情報や偽造情報を生成する。
本研究は, LLMによる患者からのリアルタイム医療クエリに対する幻覚反応の先駆的な研究である。
論文 参考訳(メタデータ) (2024-09-29T00:09:01Z) - ANAH: Analytical Annotation of Hallucinations in Large Language Models [65.12177400764506]
我々は、大言語モデルにおける幻覚の@textbfAN$alytical $textbfA$nnotationを提供するデータセットである$textbfANAH$を提示する。
ANAHは、700以上のトピックをカバーする4.3k LLM応答のための12kの文レベルのアノテーションで構成されている。
幻覚アノテーションの微粒化により, LLMの幻覚が解答に蓄積されることを定量的に確認し, ANAHを用いて幻覚アノテーションを訓練し, 評価する。
論文 参考訳(メタデータ) (2024-05-30T17:54:40Z) - Do LLMs Know about Hallucination? An Empirical Investigation of LLM's
Hidden States [19.343629282494774]
大きな言語モデル(LLM)は、現実ではない答えを補うことができ、幻覚として知られている。
本研究の目的は, LLM が幻覚をどの程度認識しているか, どのように, どの程度の程度で確認することである。
論文 参考訳(メタデータ) (2024-02-15T06:14:55Z) - The Dawn After the Dark: An Empirical Study on Factuality Hallucination
in Large Language Models [134.6697160940223]
幻覚は、大きな言語モデルの信頼できるデプロイには大きな課題となります。
幻覚(検出)の検出方法、LLMが幻覚(ソース)をなぜ検出するのか、そしてそれを緩和するために何ができるか、という3つの重要な疑問がよく研究されるべきである。
本研究は, 幻覚検出, 発生源, 緩和の3つの側面に着目した, LLM幻覚の系統的研究である。
論文 参考訳(メタデータ) (2024-01-06T12:40:45Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - HaluEval: A Large-Scale Hallucination Evaluation Benchmark for Large
Language Models [146.87696738011712]
大型言語モデル(LLM)は幻覚を生成する傾向があり、すなわち、ソースと矛盾したり、事実の知識によって検証できないコンテンツである。
言語モデル(HaluEval)のための幻覚評価ベンチマーク(Halucination Evaluation benchmark)を導入する。
論文 参考訳(メタデータ) (2023-05-19T15:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。