論文の概要: Detecting LLM Fact-conflicting Hallucinations Enhanced by Temporal-logic-based Reasoning
- arxiv url: http://arxiv.org/abs/2502.13416v1
- Date: Wed, 19 Feb 2025 04:21:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 14:00:21.846631
- Title: Detecting LLM Fact-conflicting Hallucinations Enhanced by Temporal-logic-based Reasoning
- Title(参考訳): 時相論理的推論によるLLM Fact-Conflicting Hallucinationの検出
- Authors: Ningke Li, Yahui Song, Kailong Wang, Yuekang Li, Ling Shi, Yi Liu, Haoyu Wang,
- Abstract要約: Drowzeeは、大規模言語モデルのためのエンドツーエンドのメタモルフィックテストフレームワークである。
時相論理を用いて、大規模な言語モデルにおけるファクト・コンフリクト・幻覚(FCH)を識別する。
その結果、ドロージーは24.7%から59.8%までの非時間関連幻覚率と16.7%から39.2%の時間関連幻覚率を効果的に同定した。
- 参考スコア(独自算出の注目度): 10.606613497282398
- License:
- Abstract: Large language models (LLMs) face the challenge of hallucinations -- outputs that seem coherent but are actually incorrect. A particularly damaging type is fact-conflicting hallucination (FCH), where generated content contradicts established facts. Addressing FCH presents three main challenges: 1) Automatically constructing and maintaining large-scale benchmark datasets is difficult and resource-intensive; 2) Generating complex and efficient test cases that the LLM has not been trained on -- especially those involving intricate temporal features -- is challenging, yet crucial for eliciting hallucinations; and 3) Validating the reasoning behind LLM outputs is inherently difficult, particularly with complex logical relationships, as it requires transparency in the model's decision-making process. This paper presents Drowzee, an innovative end-to-end metamorphic testing framework that utilizes temporal logic to identify fact-conflicting hallucinations (FCH) in large language models (LLMs). Drowzee builds a comprehensive factual knowledge base by crawling sources like Wikipedia and uses automated temporal-logic reasoning to convert this knowledge into a large, extensible set of test cases with ground truth answers. LLMs are tested using these cases through template-based prompts, which require them to generate both answers and reasoning steps. To validate the reasoning, we propose two semantic-aware oracles that compare the semantic structure of LLM outputs to the ground truths. Across nine LLMs in nine different knowledge domains, experimental results show that Drowzee effectively identifies rates of non-temporal-related hallucinations ranging from 24.7% to 59.8%, and rates of temporal-related hallucinations ranging from 16.7% to 39.2%.
- Abstract(参考訳): 大きな言語モデル(LLM)は幻覚の課題に直面します。
特に損傷のあるタイプは、生成したコンテンツが確立した事実と矛盾する、ファクトコンプレッション幻覚(FCH)である。
FCHへの対処には3つの課題がある。
1)大規模ベンチマークデータセットの自動構築・維持は困難で資源集約的です。
2) LLMが訓練を受けていない複雑で効率的なテストケース(特に複雑な時間的特徴を含むもの)の生成は困難であるが、幻覚を誘発するためには不可欠である。
3) LLMのアウトプットの背後にある推論を検証することは、特に複雑な論理的関係において、モデルの意思決定プロセスにおいて透明性を必要とするため、本質的に困難である。
本稿では,時間論理を利用して大規模言語モデル(LLM)におけるファクトコンフリクト幻覚(FCH)を識別する,革新的なエンドツーエンドのメタモルフィックテストフレームワークであるDrowzeeを提案する。
DrowzeeはWikipediaのようなソースをクロールすることによって、総合的な事実知識ベースを構築し、自動化された時間論理的推論を使用して、この知識を、真実の答えを持った大規模な拡張可能なテストケースに変換する。
LLMはテンプレートベースのプロンプトを通じてこれらのケースを使用してテストされる。
そこで本研究では,LLMの出力のセマンティック構造と基礎的真理を比較検討する2つのセマンティック・アウェア・オラクルを提案する。
9つの異なる知識領域の9つのLLMにおいて、ドローゼは24.7%から59.8%までの時間的関連幻覚率と16.7%から39.2%の時間的関連幻覚率を効果的に同定している。
関連論文リスト
- DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language Models Meet False Premises [28.72485319617863]
幻覚を緩和する新しいプロンプトアルゴリズムDecoPromptを提案する。
DecoPrompt は LLM を利用して偽前提のプロンプトを "デコード" する。
2つのデータセットで実験を行い、DecoPromptは異なるLLMから出力された幻覚を効果的に低減できることを示した。
論文 参考訳(メタデータ) (2024-11-12T00:48:01Z) - LongHalQA: Long-Context Hallucination Evaluation for MultiModal Large Language Models [96.64960606650115]
LongHalQA (LongHalQA) は、6Kの長い複雑な幻覚テキストからなるLLMフリー幻覚ベンチマークである。
LongHalQA は GPT4V の生成した幻覚データによって特徴付けられる。
論文 参考訳(メタデータ) (2024-10-13T18:59:58Z) - Mitigating Entity-Level Hallucination in Large Language Models [11.872916697604278]
本稿では,大規模言語モデル(LLM)における幻覚の検出・緩和手法として,幻覚検出(DRAD)に基づく動的検索拡張を提案する。
実験の結果,LDMにおける幻覚の検出と緩和の両面において,DRADは優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-12T16:47:34Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Drowzee: Metamorphic Testing for Fact-Conflicting Hallucination Detection in Large Language Models [11.138489774712163]
我々は、FCH(Fact-Conflicting Hallucinations)の検出のためのメタモルフィックテストを強化するために、論理プログラミングを活用する革新的なアプローチを提案する。
テストケースを生成し,9つのドメインにまたがる6つの異なる大言語モデルに対して幻覚を検知し,24.7%から59.8%の比率を示した。
論文 参考訳(メタデータ) (2024-05-01T17:24:42Z) - KnowHalu: Hallucination Detection via Multi-Form Knowledge Based Factual Checking [55.2155025063668]
KnowHaluは、大規模言語モデル(LLM)によって生成されたテキスト中の幻覚を検出する新しいアプローチである
ステップワイズ推論、マルチフォームクエリ、ファクトチェックのためのマルチフォーム知識、フュージョンベースの検出メカニズムを使用する。
評価の結果,KnowHaluは様々なタスクにおける幻覚検出においてSOTAベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-04-03T02:52:07Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - Temporal Knowledge Question Answering via Abstract Reasoning Induction [32.08799860090592]
本研究では,Large Language Models(LLMs)における時間的知識推論の高度化という課題に対処する。
本稿では,時間的推論を知識非依存と知識に基づく2つのフェーズに分割する抽象推論誘導(ARI)フレームワークを提案する。
提案手法は,2つの時間的QAデータセットに対して29.7%と9.27%の相対的な向上を達成している。
論文 参考訳(メタデータ) (2023-11-15T17:46:39Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。