論文の概要: Beyond Detection: Exploring Evidence-based Multi-Agent Debate for Misinformation Intervention and Persuasion
- arxiv url: http://arxiv.org/abs/2511.07267v1
- Date: Mon, 10 Nov 2025 16:15:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.359038
- Title: Beyond Detection: Exploring Evidence-based Multi-Agent Debate for Misinformation Intervention and Persuasion
- Title(参考訳): 発見を超えて:誤情報介入と説得のための証拠に基づくマルチエージェント討論
- Authors: Chen Han, Yijia Ma, Jin Tan, Wenzhen Zheng, Xijin Tang,
- Abstract要約: マルチエージェント・ディベート(MAD)フレームワークは、敵対的推論による誤情報検出をシミュレートするための有望なアプローチとして登場した。
我々は,事実証拠検索を取り入れた従来のアプローチを拡張するエビデンスベースのMADフレームワークであるED2Dを紹介する。
ED2Dによるデバンキング転写の説得的効果を,ヒトの専門家によって書かれたものと比較した。
- 参考スコア(独自算出の注目度): 3.470521529046786
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent debate (MAD) frameworks have emerged as promising approaches for misinformation detection by simulating adversarial reasoning. While prior work has focused on detection accuracy, it overlooks the importance of helping users understand the reasoning behind factual judgments and develop future resilience. The debate transcripts generated during MAD offer a rich but underutilized resource for transparent reasoning. In this study, we introduce ED2D, an evidence-based MAD framework that extends previous approach by incorporating factual evidence retrieval. More importantly, ED2D is designed not only as a detection framework but also as a persuasive multi-agent system aimed at correcting user beliefs and discouraging misinformation sharing. We compare the persuasive effects of ED2D-generated debunking transcripts with those authored by human experts. Results demonstrate that ED2D outperforms existing baselines across three misinformation detection benchmarks. When ED2D generates correct predictions, its debunking transcripts exhibit persuasive effects comparable to those of human experts; However, when ED2D misclassifies, its accompanying explanations may inadvertently reinforce users'misconceptions, even when presented alongside accurate human explanations. Our findings highlight both the promise and the potential risks of deploying MAD systems for misinformation intervention. We further develop a public community website to help users explore ED2D, fostering transparency, critical thinking, and collaborative fact-checking.
- Abstract(参考訳): 多エージェント討論(MAD)フレームワークは、敵対的推論をシミュレートして誤情報検出のための有望なアプローチとして登場した。
以前の作業では検出精度に重点を置いていたが、事実判断の背後にある理由を理解し、将来的なレジリエンスを開発することの重要性を見落としている。
MADの間に生成された議論の書き起こしは、透明な推論のためにリッチだが未利用のリソースを提供する。
本研究では,事実証拠検索を取り入れた従来のアプローチを拡張するエビデンスベースのMADフレームワークであるED2Dを紹介する。
さらに重要なのは、ED2Dは検知フレームワークとしてだけでなく、ユーザの信念の修正や誤情報共有の防止を目的とした説得力のあるマルチエージェントシステムとして設計されていることだ。
ED2Dによるデバンキング転写の説得的効果を,ヒトの専門家によって書かれたものと比較した。
その結果、ED2Dは3つの誤情報検出ベンチマークで既存のベースラインを上回っていることがわかった。
ED2Dが正しい予測を生成すると、その文書化は人間の専門家に匹敵する説得力のある効果を示すが、ED2Dが誤って分類すると、それに伴う説明は、正確な人間の説明と共に提示されたとしても、不注意にユーザーの誤解を補強する可能性がある。
本研究は,誤情報介入のためのMADシステム導入の約束と可能性の両方を浮き彫りにした。
さらに、ED2Dの探索、透明性の向上、批判的思考、協調的な事実チェックを支援するためのコミュニティWebサイトも開発しています。
関連論文リスト
- COMMUNITYNOTES: A Dataset for Exploring the Helpfulness of Fact-Checking Explanations [89.37527535663433]
ユーザが提供するノートと有用なラベルを用いた104kポストの大規模データセットを提示する。
本稿では,自動的なプロンプト最適化による理由定義の自動生成と改善を行うフレームワークを提案する。
実験の結果,最適化された定義は有用性と推論の両方を改善できることがわかった。
論文 参考訳(メタデータ) (2025-10-28T05:28:47Z) - Towards Scalable Oversight with Collaborative Multi-Agent Debate in Error Detection [81.52796950244705]
自己診断は、信頼できる外部からのフィードバックがなければ、複雑なタスクでは信頼できない。
我々は,新たなコラボレーティブMADプロトコルであるColMADを導入し,MADを非ゼロ和ゲームとして再構成する。
ColMADは従来の競合MADよりも19%優れていた。
論文 参考訳(メタデータ) (2025-10-23T19:46:00Z) - ConspirED: A Dataset for Cognitive Traits of Conspiracy Theories and Large Language Model Safety [87.90209836101353]
コンスピレーション(Conspired)は、一般的な認知特性に注釈を付けた最初の陰謀的内容のデータセットである。
我々は,比較的特徴を識別し,テキスト抽出において支配的特徴を決定する計算モデルを開発した。
我々は,大規模言語/推論モデル (LLM/LRM) を補間入力に対して頑健性を評価する。
論文 参考訳(メタデータ) (2025-08-28T06:39:25Z) - Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models [1.0091379815096075]
D2D(Dbate-to-Detect, D2D)は, 偽情報検出を構造化された敵対的議論として再構築する, 新規なマルチエージェント・ディベート(MAD)フレームワークである。
ファクトチェックにインスパイアされたD2Dは、各エージェントにドメイン固有のプロファイルを割り当て、Opening Statement、Rebuttal、Free Debate、Closing Statement、Judgmentを含む5段階の議論プロセスを編成する。
従来の二項分類を超越するために、D2Dは5つの異なる次元にまたがるクレームを評価する多次元評価機構を導入している。
論文 参考訳(メタデータ) (2025-05-24T08:44:33Z) - MAD-Sherlock: Multi-Agent Debate for Visual Misinformation Detection [36.12673167913763]
文外誤情報検出のためのマルチエージェント討論システムMAD-Sherlockを紹介する。
MAD-Sherlockは、オンラインで見られる多様で矛盾する会話を反映して、マルチエージェントの議論として検出する。
我々のフレームワークはドメインと時間に依存しず、微調整は必要ありませんが、詳細な説明で最先端の精度を実現しています。
論文 参考訳(メタデータ) (2024-10-26T10:34:22Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。