論文の概要: Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models
- arxiv url: http://arxiv.org/abs/2505.18596v1
- Date: Sat, 24 May 2025 08:44:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.531868
- Title: Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models
- Title(参考訳): ディベート・ツー・ディテクト:大規模言語モデルを用いた実世界ディベートとしての誤情報検出の修正
- Authors: Chen Han, Wenzhen Zheng, Xijin Tang,
- Abstract要約: D2D(Dbate-to-Detect, D2D)は, 偽情報検出を構造化された敵対的議論として再構築する, 新規なマルチエージェント・ディベート(MAD)フレームワークである。
ファクトチェックにインスパイアされたD2Dは、各エージェントにドメイン固有のプロファイルを割り当て、Opening Statement、Rebuttal、Free Debate、Closing Statement、Judgmentを含む5段階の議論プロセスを編成する。
GPT-4oによる2つの偽ニュースデータセットの実験は、ベースライン法よりも大幅に改善された。
- 参考スコア(独自算出の注目度): 0.8302146576157498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of misinformation in digital platforms reveals the limitations of traditional detection methods, which mostly rely on static classification and fail to capture the intricate process of real-world fact-checking. Despite advancements in Large Language Models (LLMs) that enhance automated reasoning, their application to misinformation detection remains hindered by issues of logical inconsistency and superficial verification. In response, we introduce Debate-to-Detect (D2D), a novel Multi-Agent Debate (MAD) framework that reformulates misinformation detection as a structured adversarial debate. Inspired by fact-checking workflows, D2D assigns domain-specific profiles to each agent and orchestrates a five-stage debate process, including Opening Statement, Rebuttal, Free Debate, Closing Statement, and Judgment. To transcend traditional binary classification, D2D introduces a multi-dimensional evaluation mechanism that assesses each claim across five distinct dimensions: Factuality, Source Reliability, Reasoning Quality, Clarity, and Ethics. Experiments with GPT-4o on two fakenews datasets demonstrate significant improvements over baseline methods, and the case study highlight D2D's capability to iteratively refine evidence while improving decision transparency, representing a substantial advancement towards robust and interpretable misinformation detection. The code will be open-sourced in a future release.
- Abstract(参考訳): デジタルプラットフォームにおける誤報の拡散は、主に静的な分類に依存し、現実世界のファクトチェックの複雑なプロセスを捉えるのに失敗する従来の検出方法の限界を明らかにしている。
自動推論を強化する大規模言語モデル(LLM)の進歩にもかかわらず、その誤情報検出への応用は、論理的矛盾や表面的検証の問題によって妨げられている。
そこで本稿では,誤情報検出を構造化された敵対的議論として再検討する,新しいマルチエージェント・ディベート(MAD)フレームワークであるD2Dを紹介した。
ファクトチェックワークフローにインスパイアされたD2Dは、各エージェントにドメイン固有のプロファイルを割り当て、Opening Statement、Rebuttal、Free Debate、Closing Statement、Judgmentを含む5段階の議論プロセスを編成する。
従来の二項分類を超越するために、D2Dは5つの異なる次元にまたがるクレームを評価する多次元評価機構を導入している。
GPT-4oによる2つの偽ニュースデータセットの実験は、ベースライン法よりも大幅に改善され、ケーススタディでは、D2Dが証拠を反復的に洗練し、意思決定の透明性を改善しながら、堅牢で解釈可能な誤情報検出への実質的な進歩を示す能力を強調した。
コードは今後のリリースでオープンソース化される予定だ。
関連論文リスト
- Seeing Through Deception: Uncovering Misleading Creator Intent in Multimodal News with Vision-Language Models [48.2311603411121]
本稿では,創造者の意図を明示的にモデル化することで,現実のマルチモーダルニュース作成をシミュレートする自動化フレームワークを提案する。
DeceptionDecodedは、信頼できる参照記事と一致した12,000のイメージキャプチャペアからなるベンチマークである。
我々は3つの意図中心のタスクに対して、14の最先端ビジョン言語モデル(VLM)の包括的な評価を行う。
論文 参考訳(メタデータ) (2025-05-21T13:14:32Z) - Joint Detection of Fraud and Concept Drift inOnline Conversations with LLM-Assisted Judgment [11.917779863156097]
本稿では,まず,アンサンブル分類モデルを用いて疑わしい会話を識別する2段階検出フレームワークを提案する。
検出の信頼性を向上させるため,一級ドリフト検出器(OCDD)を用いた概念ドリフト解析を取り入れた。
ドリフトが検出されると、大きな言語モデル(LLM)は、シフトが不正操作または正当なトピック変更を示すかどうかを評価する。
論文 参考訳(メタデータ) (2025-05-07T22:30:53Z) - DSVD: Dynamic Self-Verify Decoding for Faithful Generation in Large Language Models [31.15459303576494]
本稿では,動的自己検証復号法(DSVD)を提案する。リアルタイム幻覚検出と効率的な誤り訂正により生成信頼性を向上させる新しい復号法である。
私たちの研究は、生成中のリアルタイムの自己検証が、実用的なデプロイ性を犠牲にすることなく、より信頼できる言語モデルへの実行可能なパスを提供することを証明しています。
論文 参考訳(メタデータ) (2025-03-05T03:45:50Z) - Conditioned Prompt-Optimization for Continual Deepfake Detection [11.634681724245933]
本稿では,Pmpt2Guardについて紹介する。
我々は,読み出し専用プロンプトを用いた予測アンサンブル手法を活用し,複数のフォワードパスの必要性を軽減した。
提案手法は,ディープフェイク検出に適したテキスト・プロンプト・コンディショニングを利用する。
論文 参考訳(メタデータ) (2024-07-31T12:22:57Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。