論文の概要: Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors
- arxiv url: http://arxiv.org/abs/2403.09747v1
- Date: Thu, 14 Mar 2024 00:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 21:35:10.686906
- Title: Re-Search for The Truth: Multi-round Retrieval-augmented Large Language Models are Strong Fake News Detectors
- Title(参考訳): 真実の再探索:複数ラウンドで検索可能な大規模言語モデルは強力なフェイクニュース検出器である
- Authors: Guanghua Li, Wensheng Lu, Wei Zhang, Defu Lian, Kezhong Lu, Rui Mao, Kai Shu, Hao Liao,
- Abstract要約: 大きな言語モデル(LLM)はその顕著な推論と生成能力で知られている。
クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する,新たな LLM フレームワークについて紹介する。
我々の枠組みは十分な証拠の取得を保証し、性能を向上させる。
- 参考スコア(独自算出の注目度): 38.75533934195315
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The proliferation of fake news has had far-reaching implications on politics, the economy, and society at large. While Fake news detection methods have been employed to mitigate this issue, they primarily depend on two essential elements: the quality and relevance of the evidence, and the effectiveness of the verdict prediction mechanism. Traditional methods, which often source information from static repositories like Wikipedia, are limited by outdated or incomplete data, particularly for emerging or rare claims. Large Language Models (LLMs), known for their remarkable reasoning and generative capabilities, introduce a new frontier for fake news detection. However, like traditional methods, LLM-based solutions also grapple with the limitations of stale and long-tail knowledge. Additionally, retrieval-enhanced LLMs frequently struggle with issues such as low-quality evidence retrieval and context length constraints. To address these challenges, we introduce a novel, retrieval-augmented LLMs framework--the first of its kind to automatically and strategically extract key evidence from web sources for claim verification. Employing a multi-round retrieval strategy, our framework ensures the acquisition of sufficient, relevant evidence, thereby enhancing performance. Comprehensive experiments across three real-world datasets validate the framework's superiority over existing methods. Importantly, our model not only delivers accurate verdicts but also offers human-readable explanations to improve result interpretability.
- Abstract(参考訳): フェイクニュースの拡散は、政治、経済、社会全体に大きく影響している。
この問題を緩和するためにフェイクニュース検出法が用いられているが、それらは主に証拠の品質と妥当性と、判定予測メカニズムの有効性の2つの重要な要素に依存している。
ウィキペディアのような静的リポジトリから情報を得る伝統的な手法は、特に新規または稀なクレームに対して、時代遅れまたは不完全なデータによって制限される。
大きな言語モデル(LLM)は、その顕著な推論と生成能力で知られており、偽ニュース検出のための新しいフロンティアを導入している。
しかし、従来の方法と同様に、LLMベースのソリューションも、古い知識と長い知識の限界に悩まされている。
さらに、LLMは、低品質なエビデンス検索やコンテキスト長制約といった問題にしばしば苦労する。
これらの課題に対処するため,我々は,新たなLLMフレームワークを導入し,その第1種として,クレーム検証のための Web ソースからキーエビデンスを自動的に戦略的に抽出する手法を提案する。
複数ラウンドの検索戦略を用いて,本フレームワークは十分な証拠の取得を保証し,性能の向上を図る。
3つの実世界のデータセットにわたる総合的な実験は、既存のメソッドよりもフレームワークの優位性を検証する。
重要なことは、我々のモデルは正確な評定を提供するだけでなく、結果の解釈性を改善するための人間可読な説明も提供します。
関連論文リスト
- Vietnamese Legal Information Retrieval in Question-Answering System [0.0]
Retrieval Augmented Generation (RAG)は,大規模言語モデル(LLM)の能力向上に大きく貢献している。
しかしながら、RAGはいくつかの課題のためにベトナム語に適用されると、しばしば不足する。
本報告では,これらの課題に対処するための3つの主な修正点を紹介する。
論文 参考訳(メタデータ) (2024-09-05T02:34:05Z) - Multimodal Misinformation Detection using Large Vision-Language Models [7.505532091249881]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著なパフォーマンスを示している。
誤情報検出の一部として証拠検索を考えるアプローチはほとんどない。
マルチモーダルエビデンス検索のための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T13:57:11Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Exploring the Deceptive Power of LLM-Generated Fake News: A Study of Real-World Detection Challenges [21.425647152424585]
条件付き変分オートエンコーダライズプロンプト(VLPrompt)と呼ばれる強力なフェイクニュース攻撃手法を提案する。
現行のメソッドとは異なり、VLPromptはコンテキストコヒーレンスを維持しながら追加のデータ収集を不要にする。
さまざまな検出方法や新しい人間の研究指標を含む実験を行い,その性能をデータセット上で評価した。
論文 参考訳(メタデータ) (2024-03-27T04:39:18Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - A Systematic Review on the Detection of Fake News Articles [0.0]
偽ニュースや偽情報の拡散は世界中の社会に脅威をもたらすと論じられている。
この脅威に対処するため、自然言語処理(NLP)アプローチが開発されている。
本稿は,最も性能の高い偽ニュース検出手法の定式化,既存手法による制約の特定,緩和手法の提案を目的とする。
論文 参考訳(メタデータ) (2021-10-18T21:29:11Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。