論文の概要: Multimodal Fake News Video Explanation Generation
- arxiv url: http://arxiv.org/abs/2501.08514v1
- Date: Wed, 15 Jan 2025 01:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:51:50.702119
- Title: Multimodal Fake News Video Explanation Generation
- Title(参考訳): マルチモーダルフェイクニュース映像の解説生成
- Authors: Lizhi Chen, Zhong Qian, Peifeng Li, Qiaoming Zhu,
- Abstract要約: FNVE(Fake News Video Explanation)という新しい問題を提案する。
ビデオテキストとキャプションテキストの両方を含むマルチモーダルニュースを考慮し、予測の真相を明らかにするために自然言語の説明を生成することを目的とする。
マルチモーダルトランスをベースとしたアーキテクチャを用いてFakeNVEをベンチマークし,BARTベースの自己回帰デコーダをジェネレータとして使用する。
- 参考スコア(独自算出の注目度): 13.779579002878918
- License:
- Abstract: Multi-modal explanation involves the assessment of the veracity of a variety of different content, and relies on multiple information modalities to comprehensively consider the relevance and consistency between modalities. Most existing fake news video detection methods focus on improving accuracy while ignoring the importance of providing explanations. In this paper, we propose a novel problem - Fake News Video Explanation (FNVE) - Given a multimodal news containing both video and caption text, we aim to generate natural language explanations to reveal the truth of predictions. To this end, we develop FakeNVE, a new dataset of explanations for truthfully multimodal posts, where each explanation is a natural language (English) sentence describing the attribution of a news thread. We benchmark FakeNVE by using a multimodal transformer-based architecture. Subsequently, a BART-based autoregressive decoder is used as the generator. Empirical results show compelling results for various baselines (applicable to FNVE) across multiple evaluation metrics. We also perform human evaluation on explanation generation, achieving high scores for both adequacy and fluency.
- Abstract(参考訳): マルチモーダルな説明は、様々な内容の正確性を評価することを含み、複数の情報モダリティに依存して、モダリティ間の関連性と一貫性を包括的に考慮する。
既存のフェイクニュースビデオ検出手法の多くは、説明を提供することの重要性を無視しながら精度の向上に重点を置いている。
本稿では,Fake News Video Explanation (FNVE) という新たな問題を提案する。ビデオとキャプションテキストの両方を含むマルチモーダルニュースを前提として,予測の真相を明らかにするために自然言語の説明を生成することを目的とする。
そこで本研究では,ニューススレッドの帰属を記述した自然言語(英文)文を,真に多モーダルな投稿のための説明データセットであるFakeNVEを開発した。
マルチモーダルトランスを用いたFakeNVEのベンチマークを行った。
その後、BARTベースの自己回帰デコーダがジェネレータとして使用される。
実験結果から,複数の評価指標にまたがる様々なベースライン(FNVEに適用可能な)に対して,説得力のある結果が得られた。
また,説明生成の人的評価を行い,妥当性と頻度の両面で高い評価を得た。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Official-NV: An LLM-Generated News Video Dataset for Multimodal Fake News Detection [9.48705939124715]
マルチモーダル フェイクニュース検知が 最近注目を集めています
公式なニュースビデオを含むOffic-NVというデータセットを構築した。
また,マルチモーダル特徴量からキー情報をキャプチャするOFNVDと呼ばれる新しいベースラインモデルを提案する。
論文 参考訳(メタデータ) (2024-07-28T13:23:43Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [50.079690200471454]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Fake News Detection and Manipulation Reasoning via Large Vision-Language Models [38.457805116130004]
本稿では,Human-centric and Fact-related Fake News(HFFN)と呼ばれる偽ニュースの検出と操作の推論のためのベンチマークを紹介する。
このベンチマークでは、詳細なマニュアルアノテーションによって、人間の中心性と、高い事実的関連性を強調している。
M-DRUM(Multi-modal News Detection and Reasoning langUage Model)が提示される。
論文 参考訳(メタデータ) (2024-07-02T08:16:43Z) - FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for
Explainable Fake News Detection [15.517424861844317]
既存のフェイクニュース検出手法は、ニュースの一部を真または偽と分類し、説明を提供することを目的としており、優れたパフォーマンスを達成している。
あるニュースが事実確認され、あるいは公表されていない場合、関連する生のレポートは、通常、様々なメディアに散発的に配信される。
そこで本稿では, 偽ニュース検出のためのニューラルネットワークCofCED(Coarse-to-fine Cascaded Evidence-Distillation)を提案する。
論文 参考訳(メタデータ) (2022-09-29T09:05:47Z) - Explainable Tsetlin Machine framework for fake news detection with
credibility score assessment [16.457778420360537]
本稿では,最近導入されたTsetlin Machine (TM) に基づく,新たな解釈可能な偽ニュース検出フレームワークを提案する。
我々は、TMの接続節を用いて、真偽のニューステキストの語彙的および意味的特性をキャプチャする。
評価のために、PolitiFactとGossipCopという2つの公開データセットで実験を行い、TMフレームワークが以前公開されたベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-19T13:18:02Z) - Transformer-based Language Model Fine-tuning Methods for COVID-19 Fake
News Detection [7.29381091750894]
偽ニュース検出のためのトランスフォーマーに基づく言語モデルの微調整手法を提案する。
まず、個々のモデルのトークン語彙を専門用語の実際の意味論のために拡張する。
最後に、普遍言語モデルRoBERTaとドメイン固有モデルCT-BERTによって抽出された予測特徴を、複数の層認識によって融合させ、微細で高レベルな特定の表現を統合する。
論文 参考訳(メタデータ) (2021-01-14T09:05:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。