論文の概要: Correcting Hallucinations in News Summaries: Exploration of Self-Correcting LLM Methods with External Knowledge
- arxiv url: http://arxiv.org/abs/2506.19607v1
- Date: Tue, 24 Jun 2025 13:20:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.642135
- Title: Correcting Hallucinations in News Summaries: Exploration of Self-Correcting LLM Methods with External Knowledge
- Title(参考訳): ニュース雑誌における幻覚の訂正:外部知識を用いた自己補正LDM法の探索
- Authors: Juraj Vladika, Ihsan Soydemir, Florian Matthes,
- Abstract要約: 大規模言語モデル(LLM)は、一貫性のあるテキストを生成する優れた能力を示している。
彼らは幻覚の問題に悩まされ、実際には不正確な声明を出している。
本稿では,3つの検索エンジンから得られた証拠を用いて,幻覚の要約を正す手法を用いて,最先端の自己修正システム2つについて検討する。
- 参考スコア(独自算出の注目度): 5.065947993017158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have shown remarkable capabilities to generate coherent text, they suffer from the issue of hallucinations -- factually inaccurate statements. Among numerous approaches to tackle hallucinations, especially promising are the self-correcting methods. They leverage the multi-turn nature of LLMs to iteratively generate verification questions inquiring additional evidence, answer them with internal or external knowledge, and use that to refine the original response with the new corrections. These methods have been explored for encyclopedic generation, but less so for domains like news summarization. In this work, we investigate two state-of-the-art self-correcting systems by applying them to correct hallucinated summaries using evidence from three search engines. We analyze the results and provide insights into systems' performance, revealing interesting practical findings on the benefits of search engine snippets and few-shot prompts, as well as high alignment of G-Eval and human evaluation.
- Abstract(参考訳): 大きな言語モデル(LLM)は、コヒーレントなテキストを生成する素晴らしい能力を示しているが、幻覚の問題、すなわち実際に不正確なステートメントに悩まされている。
幻覚に取り組むための多くのアプローチの中で、特に有望なものは自己修正法である。
彼らはLSMのマルチターンの性質を利用して、追加の証拠を求める検証質問を反復的に生成し、それらを内部または外部の知識で答え、それを新しい修正で元の応答を洗練するために利用する。
これらの手法は百科事典生成のために検討されてきたが、ニュース要約のような領域ではそうではない。
本研究では,3つの検索エンジンのエビデンスを用いて,2つの最先端自己修正システムについて検討する。
G-Evalと人的評価の高整合性に加えて,検索エンジンスニペットと数発のプロンプトの利点に関する興味深い実践的な知見が得られた。
関連論文リスト
- Probing LLM Hallucination from Within: Perturbation-Driven Approach via Internal Knowledge [8.793840629030395]
LLM生成テキストを3つのカテゴリに分類する新しいタスクである幻覚探索を導入する。
本稿では,これらの3種類のテキストをLLMの生成に異なる影響を与えるキーエンティティをインプロンプトで摂動させることを,新たな発見として提案する。
シネは、3つの近代LLMの幻覚探索に有効であり、幻覚検出における最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-11-14T18:55:26Z) - Mitigating Entity-Level Hallucination in Large Language Models [11.872916697604278]
本稿では,大規模言語モデル(LLM)における幻覚の検出・緩和手法として,幻覚検出(DRAD)に基づく動的検索拡張を提案する。
実験の結果,LDMにおける幻覚の検出と緩和の両面において,DRADは優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-12T16:47:34Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。