論文の概要: HalluClean: A Unified Framework to Combat Hallucinations in LLMs
- arxiv url: http://arxiv.org/abs/2511.08916v2
- Date: Wed, 19 Nov 2025 08:22:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 13:41:21.060466
- Title: HalluClean: A Unified Framework to Combat Hallucinations in LLMs
- Title(参考訳): HalluClean: LLMで幻覚を燃やすための統一フレームワーク
- Authors: Yaxin Zhao, Yu Zhang,
- Abstract要約: HalluCleanは、大きな言語モデルで幻覚を検出し修正するためのタスクに依存しないフレームワークである。
様々な領域にまたがるゼロショットの一般化を可能にするために、最小限のタスクルーチンプロンプトを使用する。
実験結果から,HaluCleanは事実整合性を大幅に向上し,競争ベースラインを上回っていることがわかった。
- 参考スコア(独自算出の注目度): 4.800943275070588
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have achieved impressive performance across a wide range of natural language processing tasks, yet they often produce hallucinated content that undermines factual reliability. To address this challenge, we introduce HalluClean, a lightweight and task-agnostic framework for detecting and correcting hallucinations in LLM-generated text. HalluClean adopts a reasoning-enhanced paradigm, explicitly decomposing the process into planning, execution, and revision stages to identify and refine unsupported claims. It employs minimal task-routing prompts to enable zero-shot generalization across diverse domains, without relying on external knowledge sources or supervised detectors. We conduct extensive evaluations on five representative tasks-question answering, dialogue, summarization, math word problems, and contradiction detection. Experimental results show that HalluClean significantly improves factual consistency and outperforms competitive baselines, demonstrating its potential to enhance the trustworthiness of LLM outputs in real-world applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、広範囲の自然言語処理タスクにおいて印象的なパフォーマンスを達成しているが、事実の信頼性を損なう幻覚的コンテンツをしばしば生成している。
この課題に対処するために,LLM生成テキストにおける幻覚の検出と修正を行う軽量でタスクに依存しないフレームワークであるHaluCleanを紹介した。
HalluCleanは、計画、実行、修正段階にプロセスを明示的に分解して、不当なクレームを特定し、精査する、推論強化のパラダイムを採用しています。
最小限のタスクルーティングプロンプトを使用して、外部の知識ソースや監視検出器に頼ることなく、さまざまな領域でゼロショットの一般化を可能にする。
本研究では,5つのタスク質問応答,対話,要約,数学語問題,矛盾検出について広範な評価を行う。
実験の結果,HaluCleanは実世界のアプリケーションにおけるLCM出力の信頼性を高める可能性を示し,現実の一貫性を著しく向上し,競争ベースラインを上回っていることがわかった。
関連論文リスト
- Multi-stage Prompt Refinement for Mitigating Hallucinations in Large Language Models [49.435669307386156]
MPR(Multi-stage Prompt Refinement)は、複数のステージにわたる不整形プロンプトを体系的に改善するためのフレームワークである。
MPRは、追加の文脈でプロンプトの明快さを反復的に強化し、最も関連する入力を優先順位付けするためにランク付けされた自己回帰機構を使用する。
幻覚ベンチマークの結果、MPRは原型と比較して85%以上の勝利率を達成した。
論文 参考訳(メタデータ) (2025-10-14T00:31:36Z) - Large Language Models Hallucination: A Comprehensive Survey [3.8100688074986095]
大規模言語モデル(LLM)は自然言語処理を変革し、様々なタスクで優れたパフォーマンスを実現している。
派手な派手さは、しばしば幻覚(幻覚)として知られる偽情報や偽情報を生み出すコストが伴う。
この調査は、LSMにおける幻覚の研究を包括的にレビューし、原因、検出、緩和に焦点を当てている。
論文 参考訳(メタデータ) (2025-10-05T20:26:38Z) - REFIND at SemEval-2025 Task 3: Retrieval-Augmented Factuality Hallucination Detection in Large Language Models [15.380441563675243]
REFIND(Retrieval-augmented Factuality Hallucination Detection)は、大規模言語モデル(LLM)出力内の幻覚スパンを検出する新しいフレームワークである。
本研究では,LLM出力の感度を定量的に評価する新しい指標であるコンテキスト感度比(CSR)を提案する。
REFINDは低リソース設定を含む9つの言語で堅牢性を示し、ベースラインモデルではかなり優れていた。
論文 参考訳(メタデータ) (2025-02-19T10:59:05Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Improving Factual Consistency of News Summarization by Contrastive Preference Optimization [65.11227166319546]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
本稿では,LLMの適合性を解消し,忠実で偽のコンテンツを生成するコントラスト優先最適化(CPO)を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。