論文の概要: MV-Debate: Multi-view Agent Debate with Dynamic Reflection Gating for Multimodal Harmful Content Detection in Social Media
- arxiv url: http://arxiv.org/abs/2508.05557v1
- Date: Thu, 07 Aug 2025 16:38:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.958862
- Title: MV-Debate: Multi-view Agent Debate with Dynamic Reflection Gating for Multimodal Harmful Content Detection in Social Media
- Title(参考訳): MV-Debate: ソーシャルメディアにおけるマルチモーダル・ハームフルコンテンツ検出のための動的反射ゲーティングを用いたマルチビューエージェント
- Authors: Rui Lu, Jinhe Bi, Yunpu Ma, Feng Xiao, Yuntao Du, Yijun Tian,
- Abstract要約: MV-Debateは、マルチモード有害コンテンツ検出のための動的リフレクションゲーティングを備えたマルチビューエージェント討論フレームワークである。
MV-Debateは4つの相補的な議論エージェント、表面分析者、深い推論者、モダリティコントラスト、社会的文脈主義者を集め、多様な解釈的視点からコンテンツを分析する。
- 参考スコア(独自算出の注目度): 14.678839369149498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media has evolved into a complex multimodal environment where text, images, and other signals interact to shape nuanced meanings, often concealing harmful intent. Identifying such intent, whether sarcasm, hate speech, or misinformation, remains challenging due to cross-modal contradictions, rapid cultural shifts, and subtle pragmatic cues. To address these challenges, we propose MV-Debate, a multi-view agent debate framework with dynamic reflection gating for unified multimodal harmful content detection. MV-Debate assembles four complementary debate agents, a surface analyst, a deep reasoner, a modality contrast, and a social contextualist, to analyze content from diverse interpretive perspectives. Through iterative debate and reflection, the agents refine responses under a reflection-gain criterion, ensuring both accuracy and efficiency. Experiments on three benchmark datasets demonstrate that MV-Debate significantly outperforms strong single-model and existing multi-agent debate baselines. This work highlights the promise of multi-agent debate in advancing reliable social intent detection in safety-critical online contexts.
- Abstract(参考訳): ソーシャルメディアは複雑なマルチモーダル環境へと発展し、テキスト、画像、その他の信号が、しばしば有害な意図を隠蔽するニュアンスされた意味を形成するように相互作用する。
皮肉、憎しみの言葉、誤報など、そのような意図を識別することは、クロスモーダルな矛盾、急激な文化的変化、微妙な実用的手がかりによって依然として困難である。
これらの課題に対処するため,マルチモーダル有害コンテンツ検出のための動的リフレクションゲーティングを備えたマルチビューエージェント討論フレームワークであるMV-Debateを提案する。
MV-Debateは4つの相補的な議論エージェント、表面分析者、深い推論者、モダリティコントラスト、社会的文脈主義者を集め、多様な解釈的視点からコンテンツを分析する。
反復的な議論とリフレクションを通じて、エージェントはリフレクション・ゲイン基準の下で反応を洗練し、精度と効率の両方を確保する。
3つのベンチマークデータセットの実験では、MV-Debateは強力な単一モデルと既存のマルチエージェントの議論ベースラインを著しく上回っている。
この研究は、安全クリティカルなオンラインコンテキストにおける信頼性の高い社会的意図の検出を推し進めるというマルチエージェントの議論の約束を強調している。
関連論文リスト
- CortexDebate: Debating Sparsely and Equally for Multi-Agent Debate [11.155092859033784]
単一大言語モデル(LLM)の問題を緩和するための効果的な戦略としてマルチエージェント議論(MAD)が登場した。
既存のMAD手法では、 (a) LLMエージェントが多くの入力情報に紛失し、性能低下を経験する、 (b) 自信過剰なジレンマ(自己保証LDMエージェントが議論を支配し、議論の有効性を低くする、という2つの問題に直面している。
そこで我々は,ヒトの脳に着想を得た新しいMAD手法"CortexDebate"を提案する。
論文 参考訳(メタデータ) (2025-07-05T07:23:15Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - Debating for Better Reasoning: An Unsupervised Multimodal Approach [56.74157117060815]
議論のパラダイムをマルチモーダルな設定に拡張し、より弱いモデルがより強力なモデルの性能を監督し、強化する可能性を探る。
視覚的質問応答 (VQA) に焦点をあて, 2つの「目に見える」専門家の視覚言語モデルが解答について議論する一方, 「盲目」(テキストのみ)の判断は議論の品質にのみ依存する。
この枠組みでは, 専門家は信念に沿う回答のみを守り, 明示的な役割プレーの必要性を排除し, 専門家の不一致の事例に議論を集中させる。
論文 参考訳(メタデータ) (2025-05-20T17:18:17Z) - The Truth Becomes Clearer Through Debate! Multi-Agent Systems with Large Language Models Unmask Fake News [39.260570381498866]
TruEDebate(TED)は、ソーシャルネットワーク上で偽ニュースを検出する新しいマルチエージェントシステムである。
TEDは形式的な議論設定に触発された厳格な議論プロセスを採用している。
DebateFlow Agentsはエージェントを2つのチームに編成する。
論文 参考訳(メタデータ) (2025-05-13T13:03:20Z) - Multi-Agent Large Language Models for Conversational Task-Solving [0.0]
対話型タスク解決における新たな主人公として,マルチエージェントシステムが誕生する。
複雑さの異なるタスク間で、マルチエージェントの議論がどのように機能するかは、いまだ不明である。
2022年から2024年までの20のマルチエージェント研究の分類について提案する。
論文 参考訳(メタデータ) (2024-10-30T11:38:13Z) - PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Learning to Break: Knowledge-Enhanced Reasoning in Multi-Agent Debate System [16.830182915504555]
マルチエージェント討論システム(MAD)は、真理を追求する人間の議論の過程を模倣する。
様々なエージェントが、限られた知識の背景から、適切に、高度に一貫した認知をさせることは困難である。
本稿では,Underline Knowledge-underlineEnhanced frameworkを用いたUnderlineMulti-underlineAgent UnderlineDebateを提案する。
論文 参考訳(メタデータ) (2023-12-08T06:22:12Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。