論文の概要: MONITOR: A Multimodal Fusion Framework to Assess Message Veracity in
Social Networks
- arxiv url: http://arxiv.org/abs/2109.02271v1
- Date: Mon, 6 Sep 2021 07:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:30:47.248527
- Title: MONITOR: A Multimodal Fusion Framework to Assess Message Veracity in
Social Networks
- Title(参考訳): MONITOR: ソーシャルネットワークにおけるメッセージの正確性を評価するマルチモーダルフュージョンフレームワーク
- Authors: Abderrazek Azri (ERIC), C\'ecile Favre (ERIC), Nouria Harbi (ERIC),
J\'er\^ome Darmont (ERIC), Camille No\^us
- Abstract要約: ソーシャルネットワークのユーザーは、コンテンツをほとんど抑制せずに投稿し共有する傾向がある。
噂や偽ニュースは急速に広まる可能性がある。
これはソーシャルメディアの信頼性を脅かし、現実の生活に深刻な結果をもたらす可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Users of social networks tend to post and share content with little
restraint. Hence, rumors and fake news can quickly spread on a huge scale. This
may pose a threat to the credibility of social media and can cause serious
consequences in real life. Therefore, the task of rumor detection and
verification has become extremely important. Assessing the veracity of a social
media message (e.g., by fact checkers) involves analyzing the text of the
message, its context and any multimedia attachment. This is a very
time-consuming task that can be much helped by machine learning. In the
literature, most message veracity verification methods only exploit textual
contents and metadata. Very few take both textual and visual contents, and more
particularly images, into account. In this paper, we second the hypothesis that
exploiting all of the components of a social media post enhances the accuracy
of veracity detection. To further the state of the art, we first propose using
a set of advanced image features that are inspired from the field of image
quality assessment, which effectively contributes to rumor detection. These
metrics are good indicators for the detection of fake images, even for those
generated by advanced techniques like generative adversarial networks (GANs).
Then, we introduce the Multimodal fusiON framework to assess message veracIty
in social neTwORks (MONITOR), which exploits all message features (i.e., text,
social context, and image features) by supervised machine learning. Such
algorithms provide interpretability and explainability in the decisions taken,
which we believe is particularly important in the context of rumor
verification. Experimental results show that MONITOR can detect rumors with an
accuracy of 96% and 89% on the MediaEval benchmark and the FakeNewsNet dataset,
respectively. These results are significantly better than those of
state-of-the-art machine learning baselines.
- Abstract(参考訳): ソーシャルネットワークのユーザーは、コンテンツの投稿や共有をほとんど抑制しない傾向がある。
そのため、噂や偽ニュースが急速に広まる可能性がある。
これはソーシャルメディアの信頼性に脅威をもたらし、現実に深刻な影響をもたらす可能性がある。
そのため,噂の検出と検証が極めて重要になっている。
ソーシャルメディアメッセージ(例えばファクトチェッカーによる)の正確性を評価するには、メッセージのテキスト、そのコンテキスト、およびあらゆるマルチメディアアタッチメントを分析する必要がある。
これは非常に時間がかかるタスクで、機械学習によって大いに助けられます。
文献では、ほとんどのメッセージ検証手法は、テキストの内容とメタデータのみを利用する。
テキストコンテンツとビジュアルコンテンツ、特に画像の両方を考慮に入れているものはほとんどない。
本稿では,ソーシャルメディアの投稿のすべての要素を活用すれば,誤検出の精度が向上する,という仮説を次々に述べる。
そこで本研究では,まず,画像品質評価の分野に触発された一連の高度な画像特徴を用いて,うわさ検出に効果的に寄与する手法を提案する。
これらの指標は、gans(generative adversarial networks)のような高度な技術によって生成されたものであっても、偽画像の検出に適した指標である。
次に,テキスト,ソーシャルコンテキスト,画像特徴などのすべてのメッセージ特徴を教師付き機械学習によって活用する,ソーシャルneTworks(MONITOR)におけるメッセージの妥当性を評価するためのMultimodal fusiONフレームワークを導入する。
このようなアルゴリズムは, 疑わしい検証の文脈において特に重要であると考えられる意思決定において, 解釈可能性と説明可能性を提供する。
実験の結果,mediaevalベンチマークとfakenewsnetデータセットでは,モニタが96%,89%の精度で噂を検出できることがわかった。
これらの結果は、最先端の機械学習ベースラインよりも大幅に優れている。
関連論文リスト
- Multi-modal Stance Detection: New Datasets and Model [56.97470987479277]
テキストと画像からなるツイートに対するマルチモーダル姿勢検出について検討する。
我々は、シンプルで効果的なマルチモーダル・プロンプト・チューニング・フレームワーク(TMPT)を提案する。
TMPTはマルチモーダル姿勢検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-22T05:24:19Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Multimodal Fake News Detection with Adaptive Unimodal Representation
Aggregation [28.564442206829625]
AURAは、適応的な一助表現アグリゲーションを備えたマルチモーダルフェイクニュース検出ネットワークである。
我々は,一様および多様の表現に従って,粗いレベルの偽ニュース検出とクロスモーダルな共存学習を行う。
WeiboとGossipcopの実験は、AURAがいくつかの最先端のFNDスキームに勝つことを証明している。
論文 参考訳(メタデータ) (2022-06-12T14:06:55Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Open-Domain, Content-based, Multi-modal Fact-checking of Out-of-Context
Images via Online Resources [70.68526820807402]
実際のイメージは、コンテキストや要素を誤って表現することによって、他の物語をサポートするために再目的化される。
私たちのゴールは、画像とコンテキストのペアリングを事実チェックすることで、この時間を要する、推論集約的なプロセスを自動化する検査可能な方法です。
私たちの研究は、オープンドメイン、コンテンツベース、マルチモーダルなファクトチェックのための最初のステップとベンチマークを提供します。
論文 参考訳(メタデータ) (2021-11-30T19:36:20Z) - Calling to CNN-LSTM for Rumor Detection: A Deep Multi-channel Model for
Message Veracity Classification in Microblogs [0.0]
噂は特に個人や社会に深刻なダメージを与える可能性がある。
ほとんどの噂検出アプローチは、噂の特徴分析と社会的特徴に焦点を当てている。
DeepMONITORはディープニューラルネットワークをベースにしており、かなり正確な自動噂検証を可能にする。
論文 参考訳(メタデータ) (2021-10-11T07:42:41Z) - FR-Detect: A Multi-Modal Framework for Early Fake News Detection on
Social Media Using Publishers Features [0.0]
ニュース分野におけるこれらのメディアの優位性にもかかわらず、制御と検証機構の欠如がフェイクニュースの普及につながっている。
早期検出機能を備えたユーザ関連・コンテンツ関連機能を用いた高精度なマルチモーダルフレームワークFR-Detectを提案する。
実験によると、パブリッシャーの機能はコンテンツベースのモデルの性能を最大13%改善し、精度とF1スコアを29%向上させることができる。
論文 参考訳(メタデータ) (2021-09-10T12:39:00Z) - Multimodal Fusion with BERT and Attention Mechanism for Fake News
Detection [0.0]
テキストと視覚データから派生したマルチモーダル特徴を融合させて偽ニュースを検出する新しい手法を提案する。
実験の結果,公開twitterデータセットにおける現在の最先端手法よりも3.1%の精度で性能が向上した。
論文 参考訳(メタデータ) (2021-04-23T08:47:54Z) - Cross-Media Keyphrase Prediction: A Unified Framework with
Multi-Modality Multi-Head Attention and Image Wordings [63.79979145520512]
マルチメディア投稿におけるキーワード予測におけるテキストと画像の併用効果について検討する。
複雑なマルチメディアインタラクションを捉えるために,M3H-Att(Multi-Modality Multi-Head Attention)を提案する。
我々のモデルは,従来の注目ネットワークに基づいて,過去の技術状況よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-11-03T08:44:18Z) - Including Images into Message Veracity Assessment in Social Media [0.0]
ソーシャルメディアは、噂が広まるための土台を築き、ソーシャルメディアの信頼性に大きな影響を及ぼす可能性がある。
本稿では,テキストコンテンツと視覚コンテンツの両方の信頼性を解析することにより,ソーシャルネットワーク上でのメッセージの正確性を評価するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-20T08:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。