論文の概要: PIXELMOD: Improving Soft Moderation of Visual Misleading Information on Twitter
- arxiv url: http://arxiv.org/abs/2407.20987v1
- Date: Tue, 30 Jul 2024 17:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 16:21:06.211487
- Title: PIXELMOD: Improving Soft Moderation of Visual Misleading Information on Twitter
- Title(参考訳): PIXELMOD: Twitterにおける視覚的ミススリーディング情報のソフトモデレーションの改善
- Authors: Pujan Paudel, Chen Ling, Jeremy Blackburn, Gianluca Stringhini,
- Abstract要約: PIXELMODは,Twitter上で軟質なモデレーションラベルを受信する候補となる画像を効率的に識別するシステムである。
PIXELMODは,ソフトモデレーションに適用した場合の既存の画像類似性アプローチよりも優れており,性能上のオーバーヘッドは無視できる。
私たちはPIXELMODを、2020年の米大統領選挙を取り巻くツイートのデータセットでテストし、99%の誤検出と2.06%の偽陰性で、視覚的に誤解を招く画像を識別できることを発見した。
- 参考スコア(独自算出の注目度): 20.15862848937725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Images are a powerful and immediate vehicle to carry misleading or outright false messages, yet identifying image-based misinformation at scale poses unique challenges. In this paper, we present PIXELMOD, a system that leverages perceptual hashes, vector databases, and optical character recognition (OCR) to efficiently identify images that are candidates to receive soft moderation labels on Twitter. We show that PIXELMOD outperforms existing image similarity approaches when applied to soft moderation, with negligible performance overhead. We then test PIXELMOD on a dataset of tweets surrounding the 2020 US Presidential Election, and find that it is able to identify visually misleading images that are candidates for soft moderation with 0.99% false detection and 2.06% false negatives.
- Abstract(参考訳): 画像は、誤解を招く、あるいは完全に偽のメッセージを運ぶための強力で即時的な手段だが、画像ベースの誤報を大規模に識別することは、ユニークな課題をもたらす。
本稿では、知覚ハッシュ、ベクトルデータベース、光学文字認識(OCR)を利用して、Twitter上でソフトモデレーションラベルを受信する候補となる画像を効率的に識別するシステムであるPIXELMODを提案する。
PIXELMODは,ソフトモデレーションに適用した場合の既存の画像類似性アプローチよりも優れており,性能上のオーバーヘッドは無視できる。
PIXELMODは、2020年の米大統領選挙を取り巻くツイートのデータセットでテストし、99%の偽検出と2.06%の偽陰性で、ソフトモデレーションの候補である視覚的に誤解を招く画像を識別できることを発見した。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Intrinsic Self-Supervision for Data Quality Audits [35.69673085324971]
コンピュータビジョンにおけるベンチマークデータセットは、しばしば、オフトピック画像、ほぼ重複、ラベルエラーを含む。
本稿では,データクリーニングの課題を再考し,ランキング問題やスコアリング問題として定式化する。
文脈認識型自己教師型表現学習と距離に基づく指標の組み合わせは, 適応バイアスのない問題発見に有効であることがわかった。
論文 参考訳(メタデータ) (2023-05-26T15:57:04Z) - Deepfake Detection of Occluded Images Using a Patch-based Approach [1.6114012813668928]
本研究では, 顔全体と顔のパッチを用いて, 障害物の有無で実像と偽像を識別する深層学習手法を提案する。
偽画像を作成するには、FFHQイメージでStyleGANとStyleGAN2を、CelebAイメージでStarGANとPGGANをトレーニングする。
提案手法は他の手法よりも早期に高い結果に到達し、異なる構築されたデータセットにおいてSoTAの結果を0.4%-7.9%向上させる。
論文 参考訳(メタデータ) (2023-04-10T12:12:14Z) - Diff-ID: An Explainable Identity Difference Quantification Framework for
DeepFake Detection [41.03606237571299]
Diff-IDは、顔の操作によって引き起こされるアイデンティティ損失を説明・測定する、簡潔で効果的なアプローチである。
特定の人物の画像をテストする際、Diff-IDはその人物の真正像を参照として利用し、同一のアイデンティティ非感受性特性特徴空間にアライメントする。
次に、一致したペアのイメージ差から、テストと参照イメージ間のアイデンティティ損失を可視化し、そのID損失を定量化するためのカスタムメトリックを設計する。
論文 参考訳(メタデータ) (2023-03-30T10:10:20Z) - Texts as Images in Prompt Tuning for Multi-Label Image Recognition [70.9310322461598]
我々は、画像テキストのコントラスト学習により、テキストを画像として扱うことができ、即時チューニングやTaIプロンプトの導入が可能であることを主張する。
特にTaIプロンプトをマルチラベル画像認識に適用し、野生の文が画像の代替として機能し、迅速なチューニングを行う。
提案したTaI-DPTは,複数ベンチマークで0ショットCLIPよりも高い性能を示した。
論文 参考訳(メタデータ) (2022-11-23T07:00:11Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z) - A Novel Inspection System For Variable Data Printing Using Deep Learning [0.9176056742068814]
超低偽アラームレート(0.005%)で可変データプリント(VDP)を検査するための新しい手法を提案する。
このシステムは、参照画像と低コストスキャナーによってキャプチャされた画像の2つの画像の比較に基づいている。
論文 参考訳(メタデータ) (2020-01-13T15:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。