論文の概要: Evons: A Dataset for Fake and Real News Virality Analysis and Prediction
- arxiv url: http://arxiv.org/abs/2209.08129v1
- Date: Fri, 16 Sep 2022 18:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 15:48:41.418122
- Title: Evons: A Dataset for Fake and Real News Virality Analysis and Prediction
- Title(参考訳): Evons: Fake and Real News Virality Analysisと予測のためのデータセット
- Authors: Kriste Krstovski, Angela Soomin Ryu, Bruce Kogut
- Abstract要約: 本稿では,偽ニュースと実ニュースを起源とするニュース記事の新たなコレクションについて紹介する。
各記事は、記事のバイラル性を示す指標として、Facebookのエンゲージメントカウントでサポートされています。
本稿では,記事のバイラル性予測の事例として,このコレクションの利用を実証的に検討する。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel collection of news articles originating from fake and real
news media sources for the analysis and prediction of news virality. Unlike
existing fake news datasets which either contain claims or news article
headline and body, in this collection each article is supported with a Facebook
engagement count which we consider as an indicator of the article virality. In
addition we also provide the article description and thumbnail image with which
the article was shared on Facebook. These images were automatically annotated
with object tags and color attributes. Using cloud based vision analysis tools,
thumbnail images were also analyzed for faces and detected faces were annotated
with facial attributes. We empirically investigate the use of this collection
on an example task of article virality prediction.
- Abstract(参考訳): 本稿では,ニュースバイラル性の分析と予測を目的とした,フェイクメディアと実ニュースメディアを起源とするニュース記事集について紹介する。
クレームやニュース記事の見出しや体を含む既存の偽ニュースデータセットとは異なり、このコレクションでは、各記事は記事のバイラル性を示す指標として、facebookのエンゲージメントカウントがサポートされている。
さらに、この記事がfacebookで共有された記事の説明とサムネイルイメージも提供します。
これらの画像は自動的にオブジェクトタグと色属性で注釈付けされた。
クラウドベースの視覚分析ツールを使用して、顔のサムネイル画像も分析され、検出された顔は顔属性でアノテートされた。
本稿では,記事のバイラル性予測の事例として,このコレクションの利用を実証的に検討する。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Visually-Aware Context Modeling for News Image Captioning [54.31708859631821]
News Image Captioningは、ニュース記事や画像からキャプションを作成することを目的としている。
より優れた名前埋め込みを学習するための顔命名モジュールを提案する。
私たちはCLIPを使用して、画像にセマンティックに近い文を検索します。
論文 参考訳(メタデータ) (2023-08-16T12:39:39Z) - TieFake: Title-Text Similarity and Emotion-Aware Fake News Detection [15.386007761649251]
本稿では,マルチモーダルな文脈情報と著者の感情を共同でモデル化し,テキストの類似性と感情認識型フェイクニュース検出(TieFake)手法を提案する。
具体的には、BERT と ResNeSt を用いて、テキストや画像の表現を学習し、出版者感情抽出器を用いて、ニュースコンテンツにおける著者の主観的感情をキャプチャする。
論文 参考訳(メタデータ) (2023-04-19T04:47:36Z) - Focus! Relevant and Sufficient Context Selection for News Image
Captioning [69.36678144800936]
News Image Captioningは、ニュース記事から追加のコンテキストを活用することで、画像を記述する必要がある。
本稿では,事前学習された視覚・言語検索モデルであるCLIPを用いて,ニュース記事中の視覚的根拠を持つエンティティをローカライズすることを提案する。
我々の実験は、記事からより良いコンテキストを選択するだけで、既存のモデルの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-12-01T20:00:27Z) - Modelling Social Context for Fake News Detection: A Graph Neural Network
Based Approach [0.39146761527401425]
フェイクニュースの検出は、情報の信頼性を確保し、ニュースエコシステムの信頼性を維持するために不可欠である。
本稿では,ハイブリッドグラフニューラルネットワークによる偽ニュース検出の社会的文脈を解析した。
論文 参考訳(メタデータ) (2022-07-27T12:58:33Z) - How does fake news use a thumbnail? CLIP-based Multimodal Detection on
the Unrepresentative News Image [8.320626134874164]
本研究では,ニュース記事のサムネイルがニュースコンテンツを正しく表現しているかどうかに着目し,偽ニュースがニュース記事のサムネイルをどのように利用するかを検討する。
無関係なサムネイルで共有されたニュース記事は、読者を誤解させ、問題の誤った印象を与える可能性がある。
事前学習したCLIP表現を用いて,マルチモーダル関係における意味的不一致の程度を捉えることを提案する。
論文 参考訳(メタデータ) (2022-04-12T05:38:14Z) - Multimodal Fusion with BERT and Attention Mechanism for Fake News
Detection [0.0]
テキストと視覚データから派生したマルチモーダル特徴を融合させて偽ニュースを検出する新しい手法を提案する。
実験の結果,公開twitterデータセットにおける現在の最先端手法よりも3.1%の精度で性能が向上した。
論文 参考訳(メタデータ) (2021-04-23T08:47:54Z) - News Image Steganography: A Novel Architecture Facilitates the Fake News
Identification [52.83247667841588]
フェイクニュースの大部分が、他の情報源からのアンスタンプ画像を引用している。
本稿では,GANに基づく画像ステガノグラフィによる不整合を明らかにするために,News Image Steganographyというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-03T11:12:23Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Transform and Tell: Entity-Aware News Image Captioning [77.4898875082832]
本稿では,ニュース記事に埋め込まれた画像のキャプションを生成するエンドツーエンドモデルを提案する。
画像中の顔や物体とキャプション内の単語を関連付けることで,マルチモーダル・マルチヘッドアテンション機構によって,最初の課題に対処する。
本稿では、バイトペアエンコーディングを用いて単語部分の列としてキャプションを生成する、最先端のトランスフォーマー言語モデルによる第2の課題に取り組む。
論文 参考訳(メタデータ) (2020-04-17T05:44:37Z) - SAFE: Similarity-Aware Multi-Modal Fake News Detection [8.572654816871873]
テキストや画像,あるいはその“ミスマッチ”に基づいて偽ニュースを検出する新しい手法を提案する。
このようなニューステキストと視覚情報の表現と関係性は共同で学習され、偽ニュースを予測するために使用される。
提案手法の有効性を実証した大規模実世界のデータについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-19T02:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。