論文の概要: How does fake news use a thumbnail? CLIP-based Multimodal Detection on
the Unrepresentative News Image
- arxiv url: http://arxiv.org/abs/2204.05533v1
- Date: Tue, 12 Apr 2022 05:38:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:33:20.305873
- Title: How does fake news use a thumbnail? CLIP-based Multimodal Detection on
the Unrepresentative News Image
- Title(参考訳): 偽ニュースはどうやってサムネイルを使うのか?
非表現型ニュース画像におけるCLIPに基づくマルチモーダル検出
- Authors: Hyewon Choi, Yejun Yoon, Seunghyun Yoon, Kunwoo Park
- Abstract要約: 本研究では,ニュース記事のサムネイルがニュースコンテンツを正しく表現しているかどうかに着目し,偽ニュースがニュース記事のサムネイルをどのように利用するかを検討する。
無関係なサムネイルで共有されたニュース記事は、読者を誤解させ、問題の誤った印象を与える可能性がある。
事前学習したCLIP表現を用いて,マルチモーダル関係における意味的不一致の程度を捉えることを提案する。
- 参考スコア(独自算出の注目度): 8.320626134874164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates how fake news uses a thumbnail for a news article
with a focus on whether a news article's thumbnail represents the news content
correctly. A news article shared with an irrelevant thumbnail can mislead
readers into having a wrong impression of the issue, especially in social media
environments where users are less likely to click the link and consume the
entire content. We propose to capture the degree of semantic incongruity in the
multimodal relation by using the pretrained CLIP representation. From a
source-level analysis, we found that fake news employs a more incongruous image
to the main content than general news. Going further, we attempted to detect
news articles with image-text incongruity. Evaluation experiments suggest that
CLIP-based methods can successfully detect news articles in which the thumbnail
is semantically irrelevant to news text. This study contributes to the research
by providing a novel view on tackling online fake news and misinformation. Code
and datasets are available at
https://github.com/ssu-humane/fake-news-thumbnail.
- Abstract(参考訳): 本研究では,ニュース記事のサムネイルがニュースコンテンツを正しく表現しているかどうかに着目し,偽ニュースがニュース記事のサムネイルをどのように利用するかを検討する。
無関係なサムネイルで共有されたニュース記事は、特にユーザーがリンクをクリックしてコンテンツ全体を消費しがちなソーシャルメディア環境で、読者を誤った印象に陥らせる可能性がある。
事前学習したCLIP表現を用いて,マルチモーダル関係における意味的不一致の程度を捉えることを提案する。
ソースレベルの分析から、偽ニュースは一般的なニュースよりもメインコンテンツに不都合なイメージを取り入れていることがわかった。
さらに,画像テキストの不一致によるニュース記事の検出を試みた。
評価実験は,サムネイルがニューステキストと意味的に無関係なニュース記事の検出にクリップベースの手法が有効であることを示唆する。
本研究は,オンライン偽ニュースや誤情報に対処する新たな視点を提供することによって,研究に寄与する。
コードとデータセットはhttps://github.com/ssu-humane/fake-news-thumbnailで入手できる。
関連論文リスト
- Adapting Fake News Detection to the Era of Large Language Models [48.5847914481222]
我々は,機械による(言い換えられた)リアルニュース,機械生成のフェイクニュース,人書きのフェイクニュース,人書きのリアルニュースの相互作用について検討する。
我々の実験では、人書き記事のみに特化して訓練された検知器が、機械が生成したフェイクニュースを検出できる興味深いパターンを明らかにしましたが、その逆ではありません。
論文 参考訳(メタデータ) (2023-11-02T08:39:45Z) - Visually-Aware Context Modeling for News Image Captioning [54.31708859631821]
News Image Captioningは、ニュース記事や画像からキャプションを作成することを目的としている。
より優れた名前埋め込みを学習するための顔命名モジュールを提案する。
私たちはCLIPを使用して、画像にセマンティックに近い文を検索します。
論文 参考訳(メタデータ) (2023-08-16T12:39:39Z) - TieFake: Title-Text Similarity and Emotion-Aware Fake News Detection [15.386007761649251]
本稿では,マルチモーダルな文脈情報と著者の感情を共同でモデル化し,テキストの類似性と感情認識型フェイクニュース検出(TieFake)手法を提案する。
具体的には、BERT と ResNeSt を用いて、テキストや画像の表現を学習し、出版者感情抽出器を用いて、ニュースコンテンツにおける著者の主観的感情をキャプチャする。
論文 参考訳(メタデータ) (2023-04-19T04:47:36Z) - Nothing Stands Alone: Relational Fake News Detection with Hypergraph
Neural Networks [49.29141811578359]
本稿では,ニュース間のグループ間相互作用を表現するためにハイパーグラフを活用することを提案する。
提案手法は,ラベル付きニュースデータの小さなサブセットであっても,優れた性能を示し,高い性能を維持する。
論文 参考訳(メタデータ) (2022-12-24T00:19:32Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - Multimodal Fake News Detection [1.929039244357139]
単調な手法とマルチモーダル手法の両方を用いて、ファケディットデータセット上のフェイクニュースのきめ細かい分類を行う。
操作されたコンテンツ、Satire、False接続などの偽ニュースカテゴリは、画像の使用の恩恵を強く受けている。
画像を使用することで、他のカテゴリの結果も改善されるが、影響は少ない。
論文 参考訳(メタデータ) (2021-12-09T10:57:18Z) - User Preference-aware Fake News Detection [61.86175081368782]
既存の偽ニュース検出アルゴリズムは、詐欺信号のニュースコンテンツをマイニングすることに焦点を当てている。
本稿では,共同コンテンツとグラフモデリングにより,ユーザの好みから様々な信号を同時にキャプチャする新しいフレームワークUPFDを提案する。
論文 参考訳(メタデータ) (2021-04-25T21:19:24Z) - News Image Steganography: A Novel Architecture Facilitates the Fake News
Identification [52.83247667841588]
フェイクニュースの大部分が、他の情報源からのアンスタンプ画像を引用している。
本稿では,GANに基づく画像ステガノグラフィによる不整合を明らかにするために,News Image Steganographyというアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-03T11:12:23Z) - Where Are the Facts? Searching for Fact-checked Information to Alleviate
the Spread of Fake News [9.68145635795782]
本稿では,オンライン利用者が投稿したオリジナルツイート(誤情報を含む可能性がある)の内容に対処するファクトチェック記事を検索する新しい枠組みを提案する。
この検索は偽ニュースのポスターやオンラインユーザーに偽ニュースの拡散を防ぎ、ソーシャルメディア上で検証済みのコンテンツを拡大させる。
本フレームワークでは,テキストと画像の両方を用いて事実チェック記事の検索を行い,実世界のデータセット上で有望な結果を得る。
論文 参考訳(メタデータ) (2020-10-07T04:55:34Z) - SAFE: Similarity-Aware Multi-Modal Fake News Detection [8.572654816871873]
テキストや画像,あるいはその“ミスマッチ”に基づいて偽ニュースを検出する新しい手法を提案する。
このようなニューステキストと視覚情報の表現と関係性は共同で学習され、偽ニュースを予測するために使用される。
提案手法の有効性を実証した大規模実世界のデータについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-19T02:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。