論文の概要: Adaptive Interaction Fusion Networks for Fake News Detection
- arxiv url: http://arxiv.org/abs/2004.10009v1
- Date: Tue, 21 Apr 2020 13:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:35:10.074008
- Title: Adaptive Interaction Fusion Networks for Fake News Detection
- Title(参考訳): 偽ニュース検出のための適応型インタラクション融合ネットワーク
- Authors: Lianwei Wu and Yuan Rao
- Abstract要約: 本稿では,偽ニュース検出機能間の相互干渉融合を実現するために,AIFN(Adaptive Interaction Fusion Networks)を提案する。
特徴関連性を確立するために,意味レベル融合自己注意ネットワーク(SFSN)を考案した。
実世界の2つのデータセットであるRumourEvalとPHEMEの実験では、AIFNが最先端のパフォーマンスを達成し、それぞれ2.05%以上と1.90%以上の精度を向上することを示した。
- 参考スコア(独自算出の注目度): 12.459707991466168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The majority of existing methods for fake news detection universally focus on
learning and fusing various features for detection. However, the learning of
various features is independent, which leads to a lack of cross-interaction
fusion between features on social media, especially between posts and comments.
Generally, in fake news, there are emotional associations and semantic
conflicts between posts and comments. How to represent and fuse the
cross-interaction between both is a key challenge. In this paper, we propose
Adaptive Interaction Fusion Networks (AIFN) to fulfill cross-interaction fusion
among features for fake news detection. In AIFN, to discover semantic
conflicts, we design gated adaptive interaction networks (GAIN) to capture
adaptively similar semantics and conflicting semantics between posts and
comments. To establish feature associations, we devise semantic-level fusion
self-attention networks (SFSN) to enhance semantic correlations and fusion
among features. Extensive experiments on two real-world datasets, i.e.,
RumourEval and PHEME, demonstrate that AIFN achieves the state-of-the-art
performance and boosts accuracy by more than 2.05% and 1.90%, respectively.
- Abstract(参考訳): フェイクニュース検出のための既存の手法の大半は、学習と検出のための様々な特徴の融合に集中している。
しかし、様々な特徴の学習は独立しており、ソーシャルメディア上の機能、特に投稿とコメント間の相互相互作用の融合が欠如している。
一般的に偽ニュースでは、投稿とコメントの間に感情的な関連や意味的な対立がある。
両者の相互作用をいかに表現し、融合するかは、重要な課題である。
本稿では,偽ニュース検出機能間の相互干渉融合を実現するために,AIFN(Adaptive Interaction Fusion Networks)を提案する。
AIFNでは、セマンティックコンフリクトを発見するために、適応的に類似したセマンティクスを捕捉し、投稿とコメント間のセマンティクスを競合させるゲート適応相互作用ネットワーク(GAIN)を設計する。
特徴関連性を確立するために,意味レベル融合自己注意ネットワーク(SFSN)を考案し,特徴間の意味的相関と融合を強化する。
RumourEval と PHEME の2つの実世界のデータセットに対する大規模な実験は、AIFN が最先端のパフォーマンスを達成し、それぞれ2.05% と 1.90% の精度を向上することを示した。
関連論文リスト
- Enhancing Emotion Recognition in Conversation through Emotional Cross-Modal Fusion and Inter-class Contrastive Learning [40.101313334772016]
会話における感情認識の目的は、文脈情報に基づいて発話の感情カテゴリーを特定することである。
従来のERC法は、クロスモーダル核融合のための単純な接続に依存していた。
本稿では,ベクトル接続に基づくモーダル融合感情予測ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:22:30Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Object Segmentation by Mining Cross-Modal Semantics [68.88086621181628]
マルチモーダル特徴の融合と復号を導くために,クロスモーダル・セマンティックスをマイニングする手法を提案する。
具体的には,(1)全周減衰核融合(AF),(2)粗大デコーダ(CFD),(3)多層自己超越からなる新しいネットワークXMSNetを提案する。
論文 参考訳(メタデータ) (2023-05-17T14:30:11Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - A Hierarchical Interactive Network for Joint Span-based Aspect-Sentiment
Analysis [34.1489054082536]
本稿では,2つのタスク間の双方向相互作用を適切にモデル化する階層型対話型ネットワーク(HI-ASA)を提案する。
クロススティッチ機構を用いて、異なるタスク固有の特徴を入力として選択的に組み合わせ、適切な双方向インタラクションを保証する。
3つの実世界のデータセットの実験は、HI-ASAがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-08-24T03:03:49Z) - Group Gated Fusion on Attention-based Bidirectional Alignment for
Multimodal Emotion Recognition [63.07844685982738]
本稿では、LSTM隠蔽状態上の注目に基づく双方向アライメントネットワークで構成されるGBAN(Gated Bidirectional Alignment Network)と呼ばれる新しいモデルを提案する。
LSTMの最後の隠れ状態よりもアテンション整列表現の方が有意に優れていたことを実証的に示す。
提案したGBANモデルは、IEMOCAPデータセットにおける既存の最先端マルチモーダルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-01-17T09:46:59Z) - A cross-modal fusion network based on self-attention and residual
structure for multimodal emotion recognition [7.80238628278552]
マルチモーダル感情認識のための自己注意構造と残像構造(CFN-SR)に基づく新たなクロスモーダル融合ネットワークを提案する。
提案手法の有効性を検証するため,RAVDESSデータセットを用いて実験を行った。
実験結果から,提案したCFN-SRは最先端技術を実現し,精度が75.76%,パラメータが26.30Mであることが確認された。
論文 参考訳(メタデータ) (2021-11-03T12:24:03Z) - RR-Net: Injecting Interactive Semantics in Human-Object Interaction
Detection [40.65483058890176]
最新のエンドツーエンドHOI検出器は関係推論に欠けており、予測のためにHOI固有の対話的セマンティクスを学習できない。
まず、インタラクション推論のための新しい構造とパラメータ共有パターンをもたらす、プログレッシブな関係認識フレームを提案する。
上記のモジュールに基づいて、Relation Reasoning Network (abbr) というエンドツーエンドのトレーニング可能なフレームワークを構築します。
RR-Net)
論文 参考訳(メタデータ) (2021-04-30T14:03:10Z) - Context-Aware Interaction Network for Question Matching [51.76812857301819]
本研究では,二つのシーケンスを整合させ,それらの意味関係を推定する文脈認識インタラクションネットワーク(coin)を提案する。
具体的には,(1)コンテキスト情報を効果的に統合するためのコンテキスト対応のクロスアテンション機構,(2)整列表現を柔軟に補間するゲート融合層を備える。
論文 参考訳(メタデータ) (2021-04-17T05:03:56Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。