論文の概要: GRaMuFeN: Graph-based Multi-modal Fake News Detection in Social Media
- arxiv url: http://arxiv.org/abs/2310.07668v1
- Date: Wed, 11 Oct 2023 17:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:39:21.099232
- Title: GRaMuFeN: Graph-based Multi-modal Fake News Detection in Social Media
- Title(参考訳): GRaMuFeN: ソーシャルメディアにおけるグラフベースのマルチモーダルフェイクニュース検出
- Authors: Makan Kananian, Fatima Badiei, S. AmirAli Gh. Ghahramani
- Abstract要約: 本研究では,ニュースのテキストコンテンツと画像コンテンツの両方を分析し,偽コンテンツを検出するモデルGraMuFeNを提案する。
GraMuFeNはテキストエンコーダとイメージエンコーダの2つの主要コンポーネントから構成される。
テキスト分析では、GraMuFeNは各テキストをグラフとして扱い、グラフ畳み込みニューラルネットワーク(GCN)をテキストエンコーダとして使用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of social media platforms such as Twitter, Instagram, and
Weibo has significantly enhanced the dissemination of false information. This
phenomenon grants both individuals and governmental entities the ability to
shape public opinions, highlighting the need for deploying effective detection
methods. In this paper, we propose GraMuFeN, a model designed to detect fake
content by analyzing both the textual and image content of news. GraMuFeN
comprises two primary components: a text encoder and an image encoder. For
textual analysis, GraMuFeN treats each text as a graph and employs a Graph
Convolutional Neural Network (GCN) as the text encoder. Additionally, the
pre-trained ResNet-152, as a Convolutional Neural Network (CNN), has been
utilized as the image encoder. By integrating the outputs from these two
encoders and implementing a contrastive similarity loss function, GraMuFeN
achieves remarkable results. Extensive evaluations conducted on two publicly
available benchmark datasets for social media news indicate a 10 % increase in
micro F1-Score, signifying improvement over existing state-of-the-art models.
These findings underscore the effectiveness of combining GCN and CNN models for
detecting fake news in multi-modal data, all while minimizing the additional
computational burden imposed by model parameters.
- Abstract(参考訳): twitter、instagram、weiboといったソーシャルメディアプラットフォームの普及は、偽情報の拡散を著しく高めている。
この現象は個人と政府機関の両方に世論を形成する能力を与え、効果的な検出方法を展開する必要性を強調している。
本稿では,ニュースのテキストコンテンツと画像コンテンツの両方を分析し,偽コンテンツを検出するモデルGraMuFeNを提案する。
GraMuFeNはテキストエンコーダとイメージエンコーダの2つの主要コンポーネントから構成される。
テキスト分析では、GraMuFeNは各テキストをグラフとして扱い、グラフ畳み込みニューラルネットワーク(GCN)をテキストエンコーダとして使用する。
さらに、CNN(Convolutional Neural Network)として事前訓練されたResNet-152が画像エンコーダとして利用されている。
これらの2つのエンコーダの出力を統合し、対照的な類似性損失関数を実装することで、GraMuFeNは顕著な結果を得る。
ソーシャルメディアニュース用の2つの公開ベンチマークデータセットで実施された大規模な評価は、マイクロF1スコアの10%増加を示し、既存の最先端モデルよりも改善されていることを示している。
これらの結果から,GCNモデルとCNNモデルを組み合わせることで,モデルパラメータによる計算負担を最小化しつつ,マルチモーダルデータ中の偽ニュースを検出する効果が示された。
関連論文リスト
- A Multimodal Adaptive Graph-based Intelligent Classification Model for Fake News [1.537737222790121]
偽ニュース検出のためのマルチモーダル適応グラフに基づくインテリジェント分類(MAGIC)を導入する。
ソフトマックス関数によるマルチモーダル入力を分類する前に,適応型グラフアテンションネットワークを用いて包括的情報相互作用グラフを構築した。
MAGICは2つの偽ニュースデータセット、すなわちFakeddit(英語)とMultimodal Fake News Detection(中国語)で訓練され、それぞれ98.8%と86.3%の精度を達成した。
論文 参考訳(メタデータ) (2024-11-09T07:19:19Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - GAMC: An Unsupervised Method for Fake News Detection using Graph
Autoencoder with Masking [18.783663535152158]
グラフベースのテクニックは、このソーシャルコンテキストを取り入れているが、大きなラベル付きデータセットの必要性によって制限されている。
本稿では,マスキングとコントラスト学習を備えたグラフオートエンコーダを用いた,教師なしの偽ニュース検出手法であるGAMCを紹介する。
情報伝達のコンテキストと内容の両方を自己教師付き信号として活用することにより,ラベル付きデータセットの要求を無効化する。
論文 参考訳(メタデータ) (2023-12-10T03:34:29Z) - Towards Better Multi-modal Keyphrase Generation via Visual Entity
Enhancement and Multi-granularity Image Noise Filtering [79.44443231700201]
マルチモーダルなキーフレーズ生成は、入力されたテキストイメージペアのコアポイントを表すキーフレーズのセットを作成することを目的としている。
入力されたテキストと画像はしばしば完全に一致しないので、画像はモデルにノイズをもたらす可能性がある。
本稿では,モデル入力を外部知識で豊かにするだけでなく,画像ノイズを効果的にフィルタする,新しいマルチモーダル・キーフレーズ生成モデルを提案する。
論文 参考訳(メタデータ) (2023-09-09T09:41:36Z) - Evidential Temporal-aware Graph-based Social Event Detection via
Dempster-Shafer Theory [76.4580340399321]
ETGNN(Evidential Temporal-aware Graph Neural Network)を提案する。
ノードがテキストであり、エッジがそれぞれ複数の共有要素によって決定されるビュー固有グラフを構築する。
ビュー固有の不確実性を考慮すると、すべてのビューの表現は、明らかなディープラーニング(EDL)ニューラルネットワークを介してマス関数に変換される。
論文 参考訳(メタデータ) (2022-05-24T16:22:40Z) - Photorealistic Text-to-Image Diffusion Models with Deep Language
Understanding [53.170767750244366]
Imagenは、前例のないフォトリアリズムと深い言語理解を備えたテキスト間拡散モデルである。
テキスト・ツー・イメージ・モデルをより深く評価するために,テキスト・ツー・イメージ・モデルの総合的かつ挑戦的なベンチマークであるDrawBenchを紹介した。
論文 参考訳(メタデータ) (2022-05-23T17:42:53Z) - GAME-ON: Graph Attention Network based Multimodal Fusion for Fake News Detection [6.037721620350107]
我々は,マルチモーダルフェイクニュース検出のためのより堅牢なデータ表現を学習するための,グラフニューラルネットワークに基づくエンドツーエンドトレーニング可能なフレームワークであるGAME-ONを提案する。
当社のモデルはTwitter上で平均11%向上し、Weiboでは2.6%のマージンで競争力を維持する一方で、最も優れた最先端ベースラインよりも65%少ないパラメータを使用する。
論文 参考訳(メタデータ) (2022-02-25T03:27:37Z) - FiLMing Multimodal Sarcasm Detection with Attention [0.7340017786387767]
サルカスムの検出は、意図された意味がその表面的な意味によって示されるものと異なる自然言語表現を特定する。
本稿では,入力テキストと画像属性のコンテキスト不整合を組み込むために,RoBERTaモデルとコアテンション層を用いた新しいアーキテクチャを提案する。
提案手法は,Twitterのマルチモーダル検出データセットの6.14%のF1スコアにおいて,既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-09T06:33:29Z) - DEAP-FAKED: Knowledge Graph based Approach for Fake News Detection [0.04834203844100679]
フェイクニュースを識別するためのノウレDgE grAPh FAKe nEws検出フレームワークを提案する。
私たちのアプローチは、ニュースコンテンツをエンコードするNLPと、知識グラフをエンコードするGNNテクニックを組み合わせたものです。
政治,ビジネス,技術,医療といった分野の記事を含む2つの公開データセットを用いて,我々のフレームワークを評価する。
論文 参考訳(メタデータ) (2021-07-04T07:09:59Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。