論文の概要: KEA Explain: Explanations of Hallucinations using Graph Kernel Analysis
- arxiv url: http://arxiv.org/abs/2507.03847v1
- Date: Sat, 05 Jul 2025 00:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.903059
- Title: KEA Explain: Explanations of Hallucinations using Graph Kernel Analysis
- Title(参考訳): KEA Explain:グラフカーネル分析による幻覚の説明
- Authors: Reilly Haskins, Ben Adams,
- Abstract要約: 大型言語モデル(LLM)は幻覚を頻繁に生成する。
この研究はKEA(Kernel-Enriched AI) Explain: このような幻覚を検知し、説明するニューロシンボリックなフレームワークを提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) frequently generate hallucinations: statements that are syntactically plausible but lack factual grounding. This research presents KEA (Kernel-Enriched AI) Explain: a neurosymbolic framework that detects and explains such hallucinations by comparing knowledge graphs constructed from LLM outputs with ground truth data from Wikidata or contextual documents. Using graph kernels and semantic clustering, the method provides explanations for detected hallucinations, ensuring both robustness and interpretability. Our framework achieves competitive accuracy in detecting hallucinations across both open- and closed-domain tasks, and is able to generate contrastive explanations, enhancing transparency. This research advances the reliability of LLMs in high-stakes domains and provides a foundation for future work on precision improvements and multi-source knowledge integration.
- Abstract(参考訳): 大規模言語モデル(LLM)は、しばしば幻覚を生成する。
本研究は,LLM出力から構築された知識グラフとWikidataや文脈文書の真理データを比較して,その幻覚を検知し,説明する,神経象徴的なフレームワークであるKEA(Kernel-Enriched AI) Explainを提示する。
グラフカーネルとセマンティッククラスタリングを用いて、検出された幻覚の説明を提供し、堅牢性と解釈可能性の両方を保証する。
オープンドメインとクローズドドメインの両方のタスクにおける幻覚検出における競合精度を実現し,コントラスト的な説明を生成し,透明性を高める。
本研究は,LLMの信頼性を向上し,今後の精度向上とマルチソース知識統合のための基盤を提供する。
関連論文リスト
- Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models [0.0]
大規模言語モデル(LLM)における幻覚は、現実世界のアプリケーションにまたがる課題が増えていることを示している。
幻覚を系統的に引き起こし定量化するプロンプトベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T14:33:47Z) - Why and How LLMs Hallucinate: Connecting the Dots with Subsequence Associations [82.42811602081692]
本稿では,幻覚を体系的に追跡・理解するサブシーケンス・アソシエーション・フレームワークを提案する。
主要な洞察は、支配的な幻覚協会が忠実なものを上回るときに生じる幻覚である。
ランダムな入力コンテキストにおける幻覚の確率を解析することにより因果列を同定するトレースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T06:34:45Z) - HalluciNot: Hallucination Detection Through Context and Common Knowledge Verification [40.69033997154463]
本稿では,エンタープライズ環境での大規模言語モデル(LLM)出力の幻覚を検出するための総合システムを提案する。
本稿では,企業アプリケーションにおける幻覚に特有なLDM応答の新たな分類法を提案し,それらをコンテキストベース,共通知識,企業固有の,無害な文に分類する。
我々の幻覚検出モデルHDM-2は、文脈と一般的な事実(共通知識)の両方に関してLLM応答を検証する。
論文 参考訳(メタデータ) (2025-04-09T17:39:41Z) - Hallucination Detection: A Probabilistic Framework Using Embeddings Distance Analysis [2.089191490381739]
本稿では,幻覚を推論するための数学的に健全な方法論を導入し,それを利用して幻覚を検出するツールを構築する。
我々の知る限りでは、幻覚的内容が正しい内容に関して構造的な違いを持つことを示すのが最初である。
これらの構造的差異を利用して幻覚応答を検出するツールを開発し、システムパラメータの特定の構成に対して66%の精度を達成する。
論文 参考訳(メタデータ) (2025-02-10T09:44:13Z) - GraphEval: A Knowledge-Graph Based LLM Hallucination Evaluation Framework [1.9286785775296298]
本稿では,知識グラフ構造における情報表現に基づく幻覚評価フレームワークGraphEvalを提案する。
我々のアプローチと最先端自然言語推論(NLI)モデルとの併用により、様々な幻覚ベンチマークにおけるバランスの取れた精度が向上する。
論文 参考訳(メタデータ) (2024-07-15T15:11:16Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Knowledge Verification to Nip Hallucination in the Bud [69.79051730580014]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。