論文の概要: Exploring Graph-aware Multi-View Fusion for Rumor Detection on Social
Media
- arxiv url: http://arxiv.org/abs/2212.02419v1
- Date: Tue, 8 Nov 2022 13:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-11 13:08:20.226838
- Title: Exploring Graph-aware Multi-View Fusion for Rumor Detection on Social
Media
- Title(参考訳): ソーシャルメディア上での噂検出のためのグラフ対応マルチビューフュージョンの探索
- Authors: Yang Wu, Jing Yang, Xiaojun Zhou, Liming Wang, Zhen Xu
- Abstract要約: 噂表現学習と分類のための新しい多視点融合フレームワークを提案する。
グラフ畳み込みニューラルネットワーク(GCN)に基づいて複数のビューを符号化し、畳み込みニューラルネットワーク(CNN)を活用する。
2つの公開データセットの実験結果から,本手法が最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 23.231289922442414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic detecting rumors on social media has become a challenging task.
Previous studies focus on learning indicative clues from conversation threads
for identifying rumorous information. However, these methods only model
rumorous conversation threads from various views but fail to fuse multi-view
features very well. In this paper, we propose a novel multi-view fusion
framework for rumor representation learning and classification. It encodes the
multiple views based on Graph Convolutional Networks (GCN), and leverages
Convolutional Neural Networks (CNN) to capture the consistent and complementary
information among all views and fuse them together. Experimental results on two
public datasets demonstrate that our method outperforms state-of-the-art
approaches.
- Abstract(参考訳): ソーシャルメディア上での自動検出は難しい課題となっている。
これまでの研究では、噂の情報を識別するための会話スレッドからの指示手がかりの学習に焦点を当てている。
しかし,これらの手法は様々な視点から噂の会話スレッドをモデル化するだけでなく,多視点機能をうまく融合させることができない。
本稿では,噂表現学習と分類のための新しい多視点融合フレームワークを提案する。
グラフ畳み込みネットワーク(gcn)に基づく複数のビューをエンコードし、畳み込みニューラルネットワーク(cnn)を活用して、すべてのビュー間の一貫性と補完的な情報をキャプチャし、それらを融合する。
2つの公開データセットの実験結果から,本手法が最先端の手法より優れていることが示された。
関連論文リスト
- Adaptive Confidence Multi-View Hashing for Multimedia Retrieval [23.018331993442285]
マルチビューハッシュ法は、複数のビューからの異種データをバイナリハッシュコードに変換する。
信頼学習を行い、不要なノイズを除去するために、新しい適応信頼多視点ハッシュ法(ACMVH)を提案する。
論文 参考訳(メタデータ) (2023-12-12T14:43:09Z) - Inconsistent Matters: A Knowledge-guided Dual-consistency Network for
Multi-modal Rumor Detection [53.48346699224921]
マルチメディアコンテンツによる噂を検出するために,知識誘導型二元整合ネットワークを提案する。
2つの一貫性検出ツールを使用して、クロスモーダルレベルとコンテント知識レベルの不整合を同時にキャプチャする。
また、異なる視覚的モダリティ条件下で頑健なマルチモーダル表現学習を可能にする。
論文 参考訳(メタデータ) (2023-06-03T15:32:20Z) - Multimodal Short Video Rumor Detection System Based on Contrastive
Learning [3.4192832062683842]
中国のショートビデオプラットフォームは、フェイクニュースの拡散の場として徐々に肥大化してきた。
短いビデオの噂を区別することは、大量の情報と共有機能のために大きな課題となる。
本研究グループは,マルチモーダルな特徴融合と外部知識の統合を包含する方法論を提案する。
論文 参考訳(メタデータ) (2023-04-17T16:07:00Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Learnable Graph Convolutional Network and Feature Fusion for Multi-view
Learning [30.74535386745822]
本稿では,Learningable Graph Convolutional Network and Feature Fusion (LGCN-FF) と呼ばれる統合ディープラーニングフレームワークを提案する。
特徴融合ネットワークと学習可能なグラフ畳み込みネットワークの2つのステージで構成されている。
提案したLGCN-FFは,多視点半教師付き分類において,様々な最先端手法よりも優れていることが検証された。
論文 参考訳(メタデータ) (2022-11-16T19:07:12Z) - Multimodal Fake News Detection with Adaptive Unimodal Representation
Aggregation [28.564442206829625]
AURAは、適応的な一助表現アグリゲーションを備えたマルチモーダルフェイクニュース検出ネットワークである。
我々は,一様および多様の表現に従って,粗いレベルの偽ニュース検出とクロスモーダルな共存学習を行う。
WeiboとGossipcopの実験は、AURAがいくつかの最先端のFNDスキームに勝つことを証明している。
論文 参考訳(メタデータ) (2022-06-12T14:06:55Z) - Multi-Modal Few-Shot Object Detection with Meta-Learning-Based
Cross-Modal Prompting [77.69172089359606]
本稿では,マルチモーダルな複数ショットオブジェクト検出(FSOD)について,少数ショット視覚例とクラスセマンティック情報の両方を用いて検討する。
我々のアプローチは、(メトリックベース)メタラーニングとプロンプトベースラーニングの高レベルな概念的類似性によって動機付けられている。
提案するマルチモーダルFSODモデルを,複数の複数ショットオブジェクト検出ベンチマークで総合的に評価し,有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-16T16:45:06Z) - Audio-Visual Fusion Layers for Event Type Aware Video Recognition [86.22811405685681]
マルチタスク学習方式において,個別のイベント固有のレイヤによるマルチセンサ統合問題に対処する新しいモデルを提案する。
我々のネットワークは単一のラベルで表現されているが、与えられたビデオを表現するために、さらに真のマルチラベルを出力できる。
論文 参考訳(メタデータ) (2022-02-12T02:56:22Z) - Deep Contrastive Learning for Multi-View Network Embedding [20.035449838566503]
マルチビューネットワーク埋め込みは、ネットワーク内のノードを低次元ベクトルに投影することを目的としている。
ほとんどの対照的な学習ベースの手法は、主に高品質なグラフ埋め込みに依存している。
マルチビューネットワーク埋め込み(CREME)のための新しいノード間コントラスト学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-08-16T06:29:18Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。