論文の概要: RoE-FND: A Case-Based Reasoning Approach with Dual Verification for Fake News Detection via LLMs
- arxiv url: http://arxiv.org/abs/2506.11078v1
- Date: Wed, 04 Jun 2025 04:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.55534
- Title: RoE-FND: A Case-Based Reasoning Approach with Dual Verification for Fake News Detection via LLMs
- Title(参考訳): RoE-FND:LLMによるフェイクニュース検出のための二重検証を用いたケースベース推論手法
- Authors: Yuzhou Yang, Yangming Zhou, Zhiying Zhu, Zhenxing Qian, Xinpeng Zhang, Sheng Li,
- Abstract要約: 経験的学習を伴う大規模言語モデルによる論理的推論タスクとしてエビデンスベースのFNDを再構成するフレームワークである textbfRoE-FND (textbfunderlineReason textbfunderlineon textbfunderlineon FND) を提案する。
主な貢献は、複数の既存の課題に対処するケースベースのFND推論フレームワーク、進化する状況への適応を可能にするトレーニング不要のアプローチ、そしてフレームワークのより優れた一般化と状態に対する有効性の実証的検証である。
- 参考スコア(独自算出の注目度): 35.96935301526216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of deceptive content online necessitates robust Fake News Detection (FND) systems. While evidence-based approaches leverage external knowledge to verify claims, existing methods face critical limitations: noisy evidence selection, generalization bottlenecks, and unclear decision-making processes. Recent efforts to harness Large Language Models (LLMs) for FND introduce new challenges, including hallucinated rationales and conclusion bias. To address these issues, we propose \textbf{RoE-FND} (\textbf{\underline{R}}eason \textbf{\underline{o}}n \textbf{\underline{E}}xperiences FND), a framework that reframes evidence-based FND as a logical deduction task by synergizing LLMs with experiential learning. RoE-FND encompasses two stages: (1) \textit{self-reflective knowledge building}, where a knowledge base is curated by analyzing past reasoning errors, namely the exploration stage, and (2) \textit{dynamic criterion retrieval}, which synthesizes task-specific reasoning guidelines from historical cases as experiences during deployment. It further cross-checks rationales against internal experience through a devised dual-channel procedure. Key contributions include: a case-based reasoning framework for FND that addresses multiple existing challenges, a training-free approach enabling adaptation to evolving situations, and empirical validation of the framework's superior generalization and effectiveness over state-of-the-art methods across three datasets.
- Abstract(参考訳): オンラインでの偽ニュースの拡散は、堅牢な偽ニュース検知(FND)システムを必要とする。
エビデンスに基づくアプローチでは、外部の知識を利用してクレームを検証するが、既存の手法ではノイズのあるエビデンスの選択、一般化ボトルネック、不明な意思決定プロセスといった重要な制限に直面している。
大規模言語モデル(LLM)をFNDに活用するための最近の取り組みは、幻覚的合理性や結論バイアスなど、新しい課題を導入している。
これらの問題に対処するために、経験的学習を伴うLCMを相乗化することにより、エビデンスベースのFNDを論理的推論タスクとして再編成するフレームワークである、f{RoE-FND} (\textbf{\underline{R}}eason \textbf{\underline{o}}n \textbf{\underline{E}}xperiences FND)を提案する。
RoE-FNDは,(1)知識ベースを過去の推論誤差,すなわち探索段階を解析してキュレートする,(2)歴史的事例からタスク固有の推論ガイドラインを,展開中の経験として合成する,という2つの段階を含む。
さらに、考案されたデュアルチャネルプロシージャを通じて、内部経験に対する合理性を相互にチェックする。
主なコントリビューションは、複数の既存の課題に対処するFNDのケースベース推論フレームワーク、進化する状況への適応を可能にするトレーニング不要のアプローチ、および3つのデータセットにわたる最先端メソッドに対するフレームワークの優れた一般化と有効性の実証的検証である。
関連論文リスト
- CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - CMIE: Combining MLLM Insights with External Evidence for Explainable Out-of-Context Misinformation Detection [4.506980868306549]
本稿では,OOC誤報を検出するための新しいフレームワークであるCMIEを提案する。
CMIEは、画像とテキスト間の基盤的共存を特定し、関連する証拠を選択的に利用して誤情報検出を強化する。
論文 参考訳(メタデータ) (2025-05-29T13:56:21Z) - Ground-R1: Incentivizing Grounded Visual Reasoning via Reinforcement Learning [96.01617809845396]
Ground-R1は、明示的なエビデンスや合理的アノテーションを必要とせずに、基礎的な視覚的推論を可能にする強化学習フレームワークである。
グラウンドR1は優れた性能を示し、不確実性認識、空間認識、反復的洗練などの創発的な認知行動を示す。
論文 参考訳(メタデータ) (2025-05-26T17:51:47Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors [38.75533934195315]
大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T00:35:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。