論文の概要: Training-Free and Interpretable Hateful Video Detection via Multi-stage Adversarial Reasoning
- arxiv url: http://arxiv.org/abs/2601.15115v1
- Date: Wed, 21 Jan 2026 15:52:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.436021
- Title: Training-Free and Interpretable Hateful Video Detection via Multi-stage Adversarial Reasoning
- Title(参考訳): 多段階逆推論による学習自由かつ解釈可能なヘイトフルビデオ検出
- Authors: Shuonan Yang, Yuchen Zhang, Zeyu Fu,
- Abstract要約: ヘイトフルビデオは、差別を増幅し、暴力を誘発し、オンラインの安全を損なうことによって深刻なリスクを引き起こす。
トレーニング不要なマルチステージ適応型リアソニングフレームワークであるMARSを導入し、ヘイトフルコンテンツ検出の信頼性と解釈を可能にする。
- 参考スコア(独自算出の注目度): 8.253541015849299
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hateful videos pose serious risks by amplifying discrimination, inciting violence, and undermining online safety. Existing training-based hateful video detection methods are constrained by limited training data and lack of interpretability, while directly prompting large vision-language models often struggle to deliver reliable hate detection. To address these challenges, this paper introduces MARS, a training-free Multi-stage Adversarial ReaSoning framework that enables reliable and interpretable hateful content detection. MARS begins with the objective description of video content, establishing a neutral foundation for subsequent analysis. Building on this, it develops evidence-based reasoning that supports potential hateful interpretations, while in parallel incorporating counter-evidence reasoning to capture plausible non-hateful perspectives. Finally, these perspectives are synthesized into a conclusive and explainable decision. Extensive evaluation on two real-world datasets shows that MARS achieves up to 10% improvement under certain backbones and settings compared to other training-free approaches and outperforms state-of-the-art training-based methods on one dataset. In addition, MARS produces human-understandable justifications, thereby supporting compliance oversight and enhancing the transparency of content moderation workflows. The code is available at https://github.com/Multimodal-Intelligence-Lab-MIL/MARS.
- Abstract(参考訳): ヘイトフルビデオは、差別を増幅し、暴力を誘発し、オンラインの安全を損なうことによって深刻なリスクを引き起こす。
既存のトレーニングベースのヘイトフルなビデオ検出方法は、限られたトレーニングデータと解釈可能性の欠如によって制限されている。
これらの課題に対処するために、トレーニング不要なマルチステージ適応型ReaSoningフレームワークであるMARSを導入し、ヘイトフルなコンテンツ検出の信頼性と解釈を可能にする。
MARSは、ビデオコンテンツの客観的な記述から始まり、その後の分析のための中立的な基盤を確立する。
これに基づいて、ヘイトフルな解釈を支持するエビデンスベースの推論を開発し、同時に反エビデンス推論を組み込んで、妥当な非ヘイトフルな視点を捉えている。
最後に、これらの視点は決定的かつ説明可能な決定へと合成される。
2つの実世界のデータセットに対する大規模な評価は、MARSが特定のバックボーンと設定下で最大10%の改善を実現していることを示している。
さらに、MARSは、人間の理解可能な正当性を生成し、コンプライアンスの監視をサポートし、コンテンツモデレーションワークフローの透明性を高める。
コードはhttps://github.com/Multimodal-Intelligence-Lab-MIL/MARSで公開されている。
関連論文リスト
- VideoTG-R1: Boosting Video Temporal Grounding via Curriculum Reinforcement Learning on Reflected Boundary Annotations [59.40631942092535]
ビデオ時間グラウンド(VTG)は、言語クエリに基づいて、ビデオ内の正確なセグメントを特定することを目的としている。
最近のMLLM(Multimodal Large Language Models)は、強化学習(RL)を通してVTGに取り組むことを約束している。
本稿では,境界アノテーションを反映した新しいカリキュラムRLフレームワークであるVideoTG-R1を提案する。
論文 参考訳(メタデータ) (2025-10-27T14:55:38Z) - Unlocking Vision-Language Models for Video Anomaly Detection via Fine-Grained Prompting [17.850029260662648]
本稿では,ビデオ異常検出のための構造化プロンプトフレームワークであるASK-Hintを提案する。
提案手法は, セマンティック・コヒーレントなグループにプロンプトを整理し, きめ細かい案内質問を定式化する。
UCF-CrimeとXD-Violenceの実験では、ASK-Hintは以前のベースラインよりも一貫してAUCを改善している。
論文 参考訳(メタデータ) (2025-10-02T16:06:31Z) - Towards a Robust Framework for Multimodal Hate Detection: A Study on Video vs. Image-based Content [7.5253808885104325]
ソーシャルメディアプラットフォームは、さまざまなモダリティにまたがるヘイトフルコンテンツの伝播を可能にする。
近年のアプローチでは、個々のモダリティを扱うことは約束されているが、異なるモダリティの組み合わせにおけるそれらの有効性は未解明のままである。
本稿では,マルチモーダルヘイト検出における融合に基づくアプローチの体系的分析を行い,ビデオコンテンツと画像コンテンツ間のパフォーマンスに着目した。
論文 参考訳(メタデータ) (2025-02-11T00:07:40Z) - Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - MarvelOVD: Marrying Object Recognition and Vision-Language Models for Robust Open-Vocabulary Object Detection [107.15164718585666]
開語彙検出コンテキスト下でのVLMの偏り予測の根本原因について検討した。
私たちの観察は、非常に優れたトレーニングターゲットを生成する、単純で効果的なパラダイム、コード化されたMarvelOVDにつながります。
我々の手法は、他の最先端技術よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2024-07-31T09:23:57Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - (Un)likelihood Training for Interpretable Embedding [30.499562324921648]
テキストと視覚データのセマンティックなギャップを埋める上で,クロスモーダル表現学習は新たな標準となっている。
埋め込みの背後にあるセマンティクスをアンロールする2つの新しい訓練目標,可能性と相違関数を提案する。
双方のトレーニング目標により,解釈可能なクロスモーダル表現を学習する新しいエンコーダデコーダネットワークが,アドホックなビデオ検索のために提案されている。
論文 参考訳(メタデータ) (2022-07-01T09:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。