論文の概要: Identifying Misinformation from Website Screenshots
- arxiv url: http://arxiv.org/abs/2102.07849v1
- Date: Mon, 15 Feb 2021 21:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 02:02:50.612501
- Title: Identifying Misinformation from Website Screenshots
- Title(参考訳): ウェブサイトスクリーンショットから誤情報を識別する
- Authors: Sara Abdali, Rutuja Gurav, Siddharth Menon, Daniel Fonseca, Negin
Entezari, Neil Shah, Evangelos E. Papalexakis
- Abstract要約: ドメインWebページの全体像である誤表現を検出する上で,有望だが無視された側面を用いることを提案する。
偽りあるいは信頼できるwebドメインによって提供されるニュース記事のスクリーンショットを取り、テンソル分解に基づく半教師付き分類技術を活用する。
提案したアプローチ、すなわち、VizFakeは、画像をグレースケールに変換するなど、多くの画像変換に敏感である。
500以上のドメインにまたがる50万件のニュース記事のデータセット上のVizFakeのF1スコアは、地上の真実ラベルの5%しか使用していない約85%である。
- 参考スコア(独自算出の注目度): 12.138840417631503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Can the look and the feel of a website give information about the
trustworthiness of an article? In this paper, we propose to use a promising,
yet neglected aspect in detecting the misinformativeness: the overall look of
the domain webpage. To capture this overall look, we take screenshots of news
articles served by either misinformative or trustworthy web domains and
leverage a tensor decomposition based semi-supervised classification technique.
The proposed approach i.e., VizFake is insensitive to a number of image
transformations such as converting the image to grayscale, vectorizing the
image and losing some parts of the screenshots. VizFake leverages a very small
amount of known labels, mirroring realistic and practical scenarios, where
labels (especially for known misinformative articles), are scarce and quickly
become dated. The F1 score of VizFake on a dataset of 50k screenshots of news
articles spanning more than 500 domains is roughly 85% using only 5% of ground
truth labels. Furthermore, tensor representations of VizFake, obtained in an
unsupervised manner, allow for exploratory analysis of the data that provides
valuable insights into the problem. Finally, we compare VizFake with deep
transfer learning, since it is a very popular black-box approach for image
classification and also well-known text text-based methods. VizFake achieves
competitive accuracy with deep transfer learning models while being two orders
of magnitude faster and not requiring laborious hyper-parameter tuning.
- Abstract(参考訳): ウェブサイトのルック&フィールは、記事の信頼性に関する情報を与えてくれるだろうか?
本稿では,その誤用を検出する上で,有望だが無視される側面,すなわちドメインのウェブページの全体像の利用を提案する。
この全体像を捉えるために、不整形または信頼できるWebドメインによって提供されるニュース記事のスクリーンショットを取得し、テンソル分解に基づく半教師付き分類手法を利用する。
提案されたアプローチ、すなわち、VizFakeは画像のグレースケールへの変換、画像のベクトル化、スクリーンショットの一部の喪失など、多くの画像変換に敏感である。
VizFakeは、非常に少量の既知のラベルを活用し、ラベル(特に既知の誤情報記事)が不足し、すぐに日付になる現実的で実用的なシナリオを反映しています。
500以上のドメインにまたがる50万件のニュース記事のデータセット上のVizFakeのF1スコアは、地上の真実ラベルの5%しか使用していない約85%である。
さらに、監視されていない方法で得られたVizFakeのテンソル表現は、問題の貴重な洞察を提供するデータの探索分析を可能にします。
最後に,VizFakeとDeep Transfer Learningを比較した。画像分類やテキストベースの手法として非常に人気のあるブラックボックスアプローチである。
VizFakeは、深層移動学習モデルとの競合精度を最大2桁高速で達成し、厳格なハイパーパラメータチューニングを必要としない。
関連論文リスト
- FakeFormer: Efficient Vulnerability-Driven Transformers for Generalisable Deepfake Detection [12.594436202557446]
本稿では,視覚変換器(ViT)が顔面偽造検出に最適である理由について検討する。
本稿では, 微妙な不整合情報を抽出するためにViTを拡張したFakeFormerというディープフェイク検出フレームワークを提案する。
FF++、Celeb-DF、WildDeepfake、DFD、DFDCP、DFDCなど、さまざまな有名なデータセットで実験が行われている。
論文 参考訳(メタデータ) (2024-10-29T11:36:49Z) - ForgeryTTT: Zero-Shot Image Manipulation Localization with Test-Time Training [42.58645429356456]
ソーシャルメディアは、現実的なフェイク画像に悩まされているため、コンテンツを信頼するのは難しい。
これらの偽物を検出するアルゴリズムは、特定のデータセットでトレーニングされているため、新しい現実世界のシナリオでは失敗することが多い。
ForgeryTTTは、画像中の操作された領域を識別するためにテスト時間トレーニングを利用する最初の方法である。
論文 参考訳(メタデータ) (2024-10-05T04:41:55Z) - FineFake: A Knowledge-Enriched Dataset for Fine-Grained Multi-Domain Fake News Detection [54.37159298632628]
FineFakeは、フェイクニュース検出のためのマルチドメイン知識強化ベンチマークである。
FineFakeは6つのセマンティックトピックと8つのプラットフォームにまたがる16,909のデータサンプルを含んでいる。
FineFakeプロジェクト全体がオープンソースリポジトリとして公開されている。
論文 参考訳(メタデータ) (2024-03-30T14:39:09Z) - NewsStories: Illustrating articles with visual summaries [49.924916589209374]
我々は,3300万記事,2200万画像,100万ビデオを含む大規模マルチモーダルデータセットを提案する。
現状の画像テキストアライメント手法は、複数の画像を持つ長い物語に対して堅牢ではないことを示す。
本稿では,GoodNewsデータセット上で,ゼロショット画像セット検索において,これらの手法を10%向上させる直感的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-07-26T17:34:11Z) - Rethinking Generalization in Few-Shot Classification [28.809141478504532]
単一のイメージレベルのアノテーションは、しばしば画像の内容の小さなサブセットを正しく記述するだけである。
本稿では、textitfew-shot Learning$の文脈における意味を詳しく調べる。
我々は、きめ細かいラベルの欠如を克服するため、マスク付き画像モデリングによるネットワークの教師なしトレーニングの最近の進歩の上に構築する。
論文 参考訳(メタデータ) (2022-06-15T03:05:21Z) - Data Efficient Language-supervised Zero-shot Recognition with Optimal
Transport Distillation [43.03533959429743]
本稿では,オンライン最適トランスポートを用いて,コントラスト学習のためのラベルとしてソフトな画像テキストマッチングを求めるOTTERを提案する。
事前訓練された画像とテキストエンコーダに基づいて、OTTERで訓練されたモデルは、3M画像テキストペアだけで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-12-17T11:27:26Z) - Image Manipulation Detection by Multi-View Multi-Scale Supervision [11.319080833880307]
画像操作検出の主な課題は、新しいデータの操作に敏感な一般化可能な特徴の学習方法である。
本稿では,多視点特徴学習とマルチスケール監視による両面の考察を行う。
我々の思考はMVSS-Netと呼ばれる新しいネットワークによって実現される。
論文 参考訳(メタデータ) (2021-04-14T13:05:58Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。