論文の概要: Graphing the Truth: Structured Visualizations for Automated Hallucination Detection in LLMs
- arxiv url: http://arxiv.org/abs/2512.00663v1
- Date: Sat, 29 Nov 2025 23:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.348375
- Title: Graphing the Truth: Structured Visualizations for Automated Hallucination Detection in LLMs
- Title(参考訳): 真実のグラフ化:LLMにおける幻覚自動検出のための構造的可視化
- Authors: Tanmay Agrawal,
- Abstract要約: 本稿では,プロプライエタリな知識とモデル生成コンテンツをインタラクティブな視覚的知識グラフにまとめるフレームワークを提案する。
ユーザは不整合を診断し、弱い推論チェーンを特定し、修正フィードバックを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models have rapidly advanced in their ability to interpret and generate natural language. In enterprise settings, they are frequently augmented with closed-source domain knowledge to deliver more contextually informed responses. However, operational constraints such as limited context windows and inconsistencies between pre-training data and supplied knowledge often lead to hallucinations, some of which appear highly credible and escape routine human review. Current mitigation strategies either depend on costly, large-scale gold-standard Q\&A curation or rely on secondary model verification, neither of which offers deterministic assurance. This paper introduces a framework that organizes proprietary knowledge and model-generated content into interactive visual knowledge graphs. The objective is to provide end users with a clear, intuitive view of potential hallucination zones by linking model assertions to underlying sources of truth and indicating confidence levels. Through this visual interface, users can diagnose inconsistencies, identify weak reasoning chains, and supply corrective feedback. The resulting human-in-the-loop workflow creates a structured feedback loop that can enhance model reliability and continuously improve response quality.
- Abstract(参考訳): 大規模言語モデルは、自然言語を解釈し生成する能力において急速に進歩している。
エンタープライズ環境では、よりコンテキストに応じた応答を提供するために、クローズドソースのドメイン知識でしばしば強化される。
しかし、事前訓練されたデータと供給された知識の矛盾のような運用上の制約は幻覚を引き起こすことが多く、そのうちのいくつかは信頼性が高く、日常的な人間のレビューから逃れているように見える。
現在の緩和戦略は、費用がかかる大規模な金標準Q&Aキュレーションに依存するか、二次モデルの検証に依存するかのいずれかであり、どちらも決定論的保証を提供しない。
本稿では,プロプライエタリな知識とモデル生成コンテンツをインタラクティブな視覚的知識グラフにまとめるフレームワークを提案する。
目的は、モデルアサーションを根底にある真実の情報源にリンクし、信頼度を示すことによって、潜在的幻覚ゾーンの明確な直感的なビューを提供することである。
このビジュアルインターフェースにより、ユーザは不整合を診断し、弱い推論チェーンを識別し、修正フィードバックを提供することができる。
結果として得られるヒューマン・イン・ザ・ループのワークフローは、モデルの信頼性を高め、応答品質を継続的に改善する構造化されたフィードバックループを生成する。
関連論文リスト
- REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance [14.932352020762991]
本稿ではReason-Guided Fact-checking with Latent Explanations REFLEX paradigmを提案する。
バックボーンモデルの内部知識を活用して、検証精度と説明品質の両方を改善する、プラグアンドプレイの自己修正パラダイムである。
自己修正されたトレーニングサンプルはわずか465で、RELFEXは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-11-25T12:06:23Z) - Seeing is Believing? Mitigating OCR Hallucinations in Multimodal Large Language Models [24.363156120809546]
劣化文書理解におけるOCR幻覚評価のための最初のベンチマークであるKIE-HVQAを提案する。
このデータセットには、IDカードと請求書にまたがるテストサンプルが含まれており、OCR信頼性のための実世界の劣化をシミュレートしている。
Qwen2.5-VL 実験により,GPT-4o に対して 7B-パラメータモデルでは幻覚のない精度が 22% 向上していることが示された。
論文 参考訳(メタデータ) (2025-06-25T06:44:07Z) - From Hallucinations to Facts: Enhancing Language Models with Curated Knowledge Graphs [20.438680406650967]
本稿では,知識グラフ(KG)を3重化して,経験的データの応答をアンカーすることで,言語モデル幻覚に対処する。
言語学的に流動的な応答を生成し、事実の正確さと文脈的関連性に深く根ざすことを目的としている。
論文 参考訳(メタデータ) (2024-12-24T20:16:10Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - KGValidator: A Framework for Automatic Validation of Knowledge Graph Construction [2.9526207670430384]
生成モデルを用いて知識グラフを検証する場合に,一貫性と検証のためのフレームワークを導入する。
この設計は適応と拡張が容易で、どんなグラフ構造化データでも検証することができる。
論文 参考訳(メタデータ) (2024-04-24T15:27:25Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。