論文の概要: Multimodal Fake News Video Explanation: Dataset, Analysis and Evaluation
- arxiv url: http://arxiv.org/abs/2501.08514v3
- Date: Thu, 17 Apr 2025 15:16:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:33:21.111825
- Title: Multimodal Fake News Video Explanation: Dataset, Analysis and Evaluation
- Title(参考訳): マルチモーダルフェイクニュース映像の解説:データセット,分析,評価
- Authors: Lizhi Chen, Zhong Qian, Peifeng Li, Qiaoming Zhu,
- Abstract要約: 我々は、2,672件のフェイクニュースビデオ投稿の新しいデータセットを開発し、現実のフェイクニュースビデオの4つの側面を確実に説明できる。
さらに,FakeVEをベンチマークするマルチモーダル変換器(Multimodal Relation Graph Transformer:MRGT)を提案する。
- 参考スコア(独自算出の注目度): 13.779579002878918
- License:
- Abstract: Multimodal fake news videos are difficult to interpret because they require comprehensive consideration of the correlation and consistency between multiple modes. Existing methods deal with fake news videos as a classification problem, but it's not clear why news videos are identified as fake. Without proper explanation, the end user may not understand the underlying meaning of the falsehood. Therefore, we propose a new problem - Fake news video Explanation (FNVE) - given a multimodal news post containing a video and title, our goal is to generate natural language explanations to reveal the falsity of the news video. To that end, we developed FakeVE, a new dataset of 2,672 fake news video posts that can definitively explain four real-life fake news video aspects. In order to understand the characteristics of fake news video explanation, we conducted an exploratory analysis of FakeVE from different perspectives. In addition, we propose a Multimodal Relation Graph Transformer (MRGT) based on the architecture of multimodal Transformer to benchmark FakeVE. The empirical results show that the results of the various benchmarks (adopted by FakeVE) are convincing and provide a detailed analysis of the differences in explanation generation of the benchmark models.
- Abstract(参考訳): マルチモーダルなフェイクニュースビデオは、複数のモード間の相関と一貫性を包括的に考慮する必要があるため、解釈が難しい。
既存の手法では、フェイクニュースビデオが分類問題として扱われていますが、なぜニュースビデオがフェイクであると特定されるのかは定かではありません。
適切な説明がなければ、エンドユーザーは偽造の根底にある意味を理解できないかもしれない。
そこで本稿では,Fake News Video Explanation (FNVE) という,ビデオとタイトルを含むマルチモーダルなニュース投稿を前提として,ニュースビデオの虚偽性を明らかにするために,自然言語による説明を生成することを目的とする。
その目的のために、我々はFakeVEを開発した。FakeVEは、2,672件のフェイクニュースビデオ投稿からなる新しいデータセットで、現実のフェイクニュースビデオ4つの側面を確実に説明できる。
フェイクニュースビデオの説明の特徴を理解するため,異なる視点からFakeVEの探索分析を行った。
さらに,FakeVEをベンチマークするマルチモーダル変換器(Multimodal Relation Graph Transformer:MRGT)を提案する。
実験結果から, 各種ベンチマーク(FakeVEによる)の結果は説得力があり, ベンチマークモデルの説明生成の違いを詳細に分析した。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Official-NV: An LLM-Generated News Video Dataset for Multimodal Fake News Detection [9.48705939124715]
マルチモーダル フェイクニュース検知が 最近注目を集めています
公式なニュースビデオを含むOffic-NVというデータセットを構築した。
また,マルチモーダル特徴量からキー情報をキャプチャするOFNVDと呼ばれる新しいベースラインモデルを提案する。
論文 参考訳(メタデータ) (2024-07-28T13:23:43Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for
Explainable Fake News Detection [15.517424861844317]
既存のフェイクニュース検出手法は、ニュースの一部を真または偽と分類し、説明を提供することを目的としており、優れたパフォーマンスを達成している。
あるニュースが事実確認され、あるいは公表されていない場合、関連する生のレポートは、通常、様々なメディアに散発的に配信される。
そこで本稿では, 偽ニュース検出のためのニューラルネットワークCofCED(Coarse-to-fine Cascaded Evidence-Distillation)を提案する。
論文 参考訳(メタデータ) (2022-09-29T09:05:47Z) - Explainable Tsetlin Machine framework for fake news detection with
credibility score assessment [16.457778420360537]
本稿では,最近導入されたTsetlin Machine (TM) に基づく,新たな解釈可能な偽ニュース検出フレームワークを提案する。
我々は、TMの接続節を用いて、真偽のニューステキストの語彙的および意味的特性をキャプチャする。
評価のために、PolitiFactとGossipCopという2つの公開データセットで実験を行い、TMフレームワークが以前公開されたベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-19T13:18:02Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。