論文の概要: Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models
- arxiv url: http://arxiv.org/abs/2505.18596v2
- Date: Tue, 27 May 2025 11:22:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.05215
- Title: Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models
- Title(参考訳): ディベート・ツー・ディテクト:大規模言語モデルを用いた実世界ディベートとしての誤情報検出の修正
- Authors: Chen Han, Wenzhen Zheng, Xijin Tang,
- Abstract要約: D2D(Dbate-to-Detect, D2D)は, 偽情報検出を構造化された敵対的議論として再構築する, 新規なマルチエージェント・ディベート(MAD)フレームワークである。
ファクトチェックにインスパイアされたD2Dは、各エージェントにドメイン固有のプロファイルを割り当て、Opening Statement、Rebuttal、Free Debate、Closing Statement、Judgmentを含む5段階の議論プロセスを編成する。
GPT-4oによる2つの偽ニュースデータセットの実験は、ベースライン法よりも大幅に改善された。
- 参考スコア(独自算出の注目度): 0.8302146576157498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of misinformation in digital platforms reveals the limitations of traditional detection methods, which mostly rely on static classification and fail to capture the intricate process of real-world fact-checking. Despite advancements in Large Language Models (LLMs) that enhance automated reasoning, their application to misinformation detection remains hindered by issues of logical inconsistency and superficial verification. In response, we introduce Debate-to-Detect (D2D), a novel Multi-Agent Debate (MAD) framework that reformulates misinformation detection as a structured adversarial debate. Inspired by fact-checking workflows, D2D assigns domain-specific profiles to each agent and orchestrates a five-stage debate process, including Opening Statement, Rebuttal, Free Debate, Closing Statement, and Judgment. To transcend traditional binary classification, D2D introduces a multi-dimensional evaluation mechanism that assesses each claim across five distinct dimensions: Factuality, Source Reliability, Reasoning Quality, Clarity, and Ethics. Experiments with GPT-4o on two fakenews datasets demonstrate significant improvements over baseline methods, and the case study highlight D2D's capability to iteratively refine evidence while improving decision transparency, representing a substantial advancement towards robust and interpretable misinformation detection. The code will be open-sourced in a future release.
- Abstract(参考訳): デジタルプラットフォームにおける誤報の拡散は、主に静的な分類に依存し、現実世界のファクトチェックの複雑なプロセスを捉えるのに失敗する従来の検出方法の限界を明らかにしている。
自動推論を強化する大規模言語モデル(LLM)の進歩にもかかわらず、その誤情報検出への応用は、論理的矛盾や表面的検証の問題によって妨げられている。
そこで本稿では,誤情報検出を構造化された敵対的議論として再検討する,新しいマルチエージェント・ディベート(MAD)フレームワークであるD2Dを紹介した。
ファクトチェックワークフローにインスパイアされたD2Dは、各エージェントにドメイン固有のプロファイルを割り当て、Opening Statement、Rebuttal、Free Debate、Closing Statement、Judgmentを含む5段階の議論プロセスを編成する。
従来の二項分類を超越するために、D2Dは5つの異なる次元にまたがるクレームを評価する多次元評価機構を導入している。
GPT-4oによる2つの偽ニュースデータセットの実験は、ベースライン法よりも大幅に改善され、ケーススタディでは、D2Dが証拠を反復的に洗練し、意思決定の透明性を改善しながら、堅牢で解釈可能な誤情報検出への実質的な進歩を示す能力を強調した。
コードは今後のリリースでオープンソース化される予定だ。
関連論文リスト
- Debating Truth: Debate-driven Claim Verification with Multiple Large Language Model Agents [13.626715532559079]
複数のLLMエージェントを用いた議論駆動手法を採用した最初のクレーム検証フレームワークであるDebateCVを提案する。
本フレームワークでは,2つのデバタがクレームに対して反対の立場をとり,複数ラウンドの議論を行う一方,モデレーターは議論を評価し,正当化とともに評決を行う。
実験の結果,提案手法は,証拠品質の異なる既存のクレーム検証方法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-07-25T09:19:25Z) - Domain Knowledge-Enhanced LLMs for Fraud and Concept Drift Detection [11.917779863156097]
概念ドリフト(CD)、すなわち意味的あるいは話題的なシフトは、時間とともに相互作用の文脈や意図を変える。
これらのシフトは、悪意のある意図を曖昧にしたり、通常の対話を模倣したりし、正確な分類を困難にします。
本稿では,事前学習された大規模言語モデルと構造化されたタスク固有の洞察を統合して,詐欺や概念ドリフトの検出を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-26T16:29:45Z) - Towards Robust Fact-Checking: A Multi-Agent System with Advanced Evidence Retrieval [1.515687944002438]
デジタル時代における誤報の急速な拡散は、世論に重大な課題をもたらす。
従来の人間主導のファクトチェック手法は信頼できるが、オンラインコンテンツの量と速度に苦慮している。
本稿では, 精度, 効率, 説明性を向上する自動ファクトチェックのための新しいマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2025-06-22T02:39:27Z) - Seeing Through Deception: Uncovering Misleading Creator Intent in Multimodal News with Vision-Language Models [48.2311603411121]
本稿では,創造者の意図を明示的にモデル化することで,現実のマルチモーダルニュース作成をシミュレートする自動化フレームワークを提案する。
DeceptionDecodedは、信頼できる参照記事と一致した12,000のイメージキャプチャペアからなるベンチマークである。
我々は3つの意図中心のタスクに対して、14の最先端ビジョン言語モデル(VLM)の包括的な評価を行う。
論文 参考訳(メタデータ) (2025-05-21T13:14:32Z) - Joint Detection of Fraud and Concept Drift inOnline Conversations with LLM-Assisted Judgment [11.917779863156097]
本稿では,まず,アンサンブル分類モデルを用いて疑わしい会話を識別する2段階検出フレームワークを提案する。
検出の信頼性を向上させるため,一級ドリフト検出器(OCDD)を用いた概念ドリフト解析を取り入れた。
ドリフトが検出されると、大きな言語モデル(LLM)は、シフトが不正操作または正当なトピック変更を示すかどうかを評価する。
論文 参考訳(メタデータ) (2025-05-07T22:30:53Z) - DSVD: Dynamic Self-Verify Decoding for Faithful Generation in Large Language Models [31.15459303576494]
本稿では,動的自己検証復号法(DSVD)を提案する。リアルタイム幻覚検出と効率的な誤り訂正により生成信頼性を向上させる新しい復号法である。
私たちの研究は、生成中のリアルタイムの自己検証が、実用的なデプロイ性を犠牲にすることなく、より信頼できる言語モデルへの実行可能なパスを提供することを証明しています。
論文 参考訳(メタデータ) (2025-03-05T03:45:50Z) - Conditioned Prompt-Optimization for Continual Deepfake Detection [11.634681724245933]
本稿では,Pmpt2Guardについて紹介する。
我々は,読み出し専用プロンプトを用いた予測アンサンブル手法を活用し,複数のフォワードパスの必要性を軽減した。
提案手法は,ディープフェイク検出に適したテキスト・プロンプト・コンディショニングを利用する。
論文 参考訳(メタデータ) (2024-07-31T12:22:57Z) - How to Train Your Fact Verifier: Knowledge Transfer with Multimodal Open Models [95.44559524735308]
大規模言語またはマルチモーダルモデルに基づく検証は、偽コンテンツや有害コンテンツの拡散を緩和するためのオンラインポリシングメカニズムをスケールアップするために提案されている。
我々は,知識伝達の初期研究を通じて,継続的な更新を行うことなく基礎モデルの性能向上の限界をテストする。
最近の2つのマルチモーダルなファクトチェックベンチマークであるMochegとFakedditの結果は、知識伝達戦略がファクドディットのパフォーマンスを最先端よりも1.7%向上し、Mochegのパフォーマンスを2.9%向上させることができることを示唆している。
論文 参考訳(メタデータ) (2024-06-29T08:39:07Z) - Detecting and Grounding Multi-Modal Media Manipulation and Beyond [93.08116982163804]
マルチモーダルフェイクメディア(DGM4)の新たな研究課題について述べる。
DGM4は、マルチモーダルメディアの真正性を検出するだけでなく、操作されたコンテンツも検出することを目的としている。
本稿では,異なるモーダル間のきめ細かい相互作用を完全に捉えるために,新しい階層型マルチモーダルマニピュレーションrEasoning tRansformer(HAMMER)を提案する。
論文 参考訳(メタデータ) (2023-09-25T15:05:46Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。