論文の概要: KEN: Knowledge Augmentation and Emotion Guidance Network for Multimodal Fake News Detection
- arxiv url: http://arxiv.org/abs/2507.09647v2
- Date: Thu, 17 Jul 2025 12:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 13:45:37.436841
- Title: KEN: Knowledge Augmentation and Emotion Guidance Network for Multimodal Fake News Detection
- Title(参考訳): KEN:マルチモーダルフェイクニュース検出のための知識向上と感情誘導ネットワーク
- Authors: Peican Zhu, Yubo Jing, Le Cheng, Keke Tang, Yangming Guo,
- Abstract要約: 我々は,知識向上・感情誘導ネットワーク(KEN)を提案する。
一方、LVLMの強力な意味理解と広範な世界知識を効果的に活用する。
一方、バランスの取れた学習を通して異なる感情型間のクラス間の違いを考察し、感情型と信頼の関係のきめ細かいモデリングを実現する。
- 参考スコア(独自算出の注目度): 1.8603865942709585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the rampant spread of misinformation on social media has made accurate detection of multimodal fake news a critical research focus. However, previous research has not adequately understood the semantics of images, and models struggle to discern news authenticity with limited textual information. Meanwhile, treating all emotional types of news uniformly without tailored approaches further leads to performance degradation. Therefore, we propose a novel Knowledge Augmentation and Emotion Guidance Network (KEN). On the one hand, we effectively leverage LVLM's powerful semantic understanding and extensive world knowledge. For images, the generated captions provide a comprehensive understanding of image content and scenes, while for text, the retrieved evidence helps break the information silos caused by the closed and limited text and context. On the other hand, we consider inter-class differences between different emotional types of news through balanced learning, achieving fine-grained modeling of the relationship between emotional types and authenticity. Extensive experiments on two real-world datasets demonstrate the superiority of our KEN.
- Abstract(参考訳): 近年,ソーシャルメディア上での誤情報拡散は,マルチモーダルフェイクニュースの正確な検出を重要な研究対象にしている。
しかし、過去の研究では画像の意味が十分に理解されておらず、モデルは限られたテキスト情報でニュースの真正性を識別するのに苦労している。
一方、全ての感情的なタイプのニュースを、調整されたアプローチを使わずに均一に扱うことで、パフォーマンスが悪化する。
そこで我々は,KEN(Knowledge Augmentation and Emotion Guidance Network)を提案する。
一方、LVLMの強力な意味理解と広範な世界知識を効果的に活用する。
画像の場合、生成されたキャプションは画像の内容やシーンを包括的に理解するが、テキストの場合、検索されたエビデンスは、閉じたテキストや限られたコンテキストによって引き起こされる情報サイロを壊すのに役立つ。
一方、バランスの取れた学習を通して異なる感情型間のクラス間の違いを考察し、感情型と信頼の関係のきめ細かいモデリングを実現する。
2つの実世界のデータセットに対する大規模な実験は、我々のKENの優位性を示している。
関連論文リスト
- SEER: Semantic Enhancement and Emotional Reasoning Network for Multimodal Fake News Detection [16.736471802440374]
本稿では,マルチモーダルフェイクニュース検出のためのセマンティックエンハンスメントと感情推論(SEER)ネットワークを提案する。
画像意味理解のための要約キャプションを生成し、意味の強化のために大規模なマルチモーダルモデルの製品を利用する。
ニュースの真正性と感情的傾向の関係に触発されて,専門家の感情的推論モジュールを提案する。
論文 参考訳(メタデータ) (2025-07-17T12:33:45Z) - KGAlign: Joint Semantic-Structural Knowledge Encoding for Multimodal Fake News Detection [2.3047429933576327]
本稿では,視覚的,テキスト的,知識に基づく表現を統合した,新しいマルチモーダルフェイクニュース検出フレームワークを提案する。
本提案では,知識基底型マルチモーダル推論という新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2025-05-18T13:08:38Z) - Bridging Cognition and Emotion: Empathy-Driven Multimodal Misinformation Detection [56.644686934050576]
ソーシャルメディアは情報発信の主流となっているが、誤報の急速な拡散を助長している。
従来の誤報検出法は主に表面的な特徴に焦点を合わせ、伝播過程における人間の共感の重要な役割を見落としている。
著者と読者の両方の視点から誤情報を分析するために、認知的・感情的共感を統合したデュアル・アスペクト・共感フレームワーク(DAE)を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:48:26Z) - A Self-Learning Multimodal Approach for Fake News Detection [35.98977478616019]
偽ニュース分類のための自己学習型マルチモーダルモデルを提案する。
このモデルは、ラベル付きデータを必要としない機能抽出のための堅牢な手法であるコントラスト学習を利用する。
公開データセットを用いた実験結果から,提案モデルがいくつかの最先端の分類手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-08T07:41:44Z) - Dynamic Analysis and Adaptive Discriminator for Fake News Detection [59.41431561403343]
偽ニュース検出のための動的解析・適応識別器(DAAD)手法を提案する。
知識に基づく手法では,モンテカルロ木探索アルゴリズムを導入し,大規模言語モデルの自己表現能力を活用する。
意味に基づく手法では、偽ニュース生成のメカニズムを明らかにするために、典型的偽造パターンを4つ定義する。
論文 参考訳(メタデータ) (2024-08-20T14:13:54Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Interpretable Detection of Out-of-Context Misinformation with Neural-Symbolic-Enhanced Large Multimodal Model [16.348950072491697]
誤報の作者は、ニュース検出システムや偽ニュースを騙すために、マルチメディア以外のコンテンツを使う傾向が強まっている。
この新たなタイプの誤報は、検出だけでなく、個々のモダリティが真の情報に十分近いため、明確化の難しさも増す。
本稿では,不一致のペアと相互の矛盾を同時に識別する,解釈可能なクロスモーダル・デコンテクスト化検出を実現する方法について検討する。
論文 参考訳(メタデータ) (2023-04-15T21:11:55Z) - Multimodal Fake News Detection with Adaptive Unimodal Representation
Aggregation [28.564442206829625]
AURAは、適応的な一助表現アグリゲーションを備えたマルチモーダルフェイクニュース検出ネットワークである。
我々は,一様および多様の表現に従って,粗いレベルの偽ニュース検出とクロスモーダルな共存学習を行う。
WeiboとGossipcopの実験は、AURAがいくつかの最先端のFNDスキームに勝つことを証明している。
論文 参考訳(メタデータ) (2022-06-12T14:06:55Z) - Open-Domain, Content-based, Multi-modal Fact-checking of Out-of-Context
Images via Online Resources [70.68526820807402]
実際のイメージは、コンテキストや要素を誤って表現することによって、他の物語をサポートするために再目的化される。
私たちのゴールは、画像とコンテキストのペアリングを事実チェックすることで、この時間を要する、推論集約的なプロセスを自動化する検査可能な方法です。
私たちの研究は、オープンドメイン、コンテンツベース、マルチモーダルなファクトチェックのための最初のステップとベンチマークを提供します。
論文 参考訳(メタデータ) (2021-11-30T19:36:20Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。