論文の概要: When GenAI Meets Fake News: Understanding Image Cascade Dynamics on Reddit
- arxiv url: http://arxiv.org/abs/2512.04639v1
- Date: Thu, 04 Dec 2025 10:13:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.109164
- Title: When GenAI Meets Fake News: Understanding Image Cascade Dynamics on Reddit
- Title(参考訳): GenAIがFake Newsに出会ったとき:Redditで画像カスケードのダイナミクスを理解する
- Authors: Saumya Chauhan, Mila Hong, Maria Vazhaeparambil,
- Abstract要約: 本稿では,誤情報とAI生成画像がRedditに再投稿するカスケードを通じてどのように伝播するかを,初めて大規模に分析する。
われわれのフレームワークは、即席のバイラル性と長期のカスケードレベルの拡散の両方を正確に予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-generated content and misinformation are increasingly prevalent on social networks. While prior research primarily examined textual misinformation, fewer studies have focused on visual content's role in virality. In this work, we present the first large-scale analysis of how misinformation and AI-generated images propagate through repost cascades across five ideologically diverse Reddit communities. By integrating textual sentiment, visual attributes, and diffusion metrics (e.g., time-to-first repost, community reach), our framework accurately predicts both immediate post-level virality (AUC=0.83) and long-term cascade-level spread (AUC=0.998). These findings offer essential insights for moderating synthetic and misleading visual content online.
- Abstract(参考訳): AI生成コンテンツや誤報がソーシャルネットワークでますます広まっている。
以前の研究では主にテキストの誤報を調査していたが、バイラル性における視覚的コンテンツの役割に焦点を当てた研究は少ない。
本研究では、5つのイデオロギー的に多様なRedditコミュニティにまたがるカスケードをポストすることで、誤情報やAI生成画像がどのように伝播するかを、初めて大規模に分析する。
テキストの感情, 視覚特性, 拡散指標(例えば, タイム・ツー・ファースト・リポスト, コミュニティリーチ)を統合することにより, 本フレームワークは, 即時的ポスト・レベル・バイラル性(AUC=0.83)と長期的カスケード・レベル・スプレッド(AUC=0.998)の両方を正確に予測する。
これらの発見は、オンラインで合成された、誤解を招く視覚コンテンツをモデレートするための重要な洞察を与える。
関連論文リスト
- AI-Generated Algorithmic Virality [1.8142288667655782]
AI生成コンテンツは、アルゴリズムのゲーム化とバイラル化に非常に効果的であると言われている。
一般に「AI slop」と呼ばれているこの現象は、おそらくはスロッピーな内容と潜在的に偽りのある内容の存在につながる。
この調査は、13のハッシュタグでTikTokとInstagramの検索結果にAI生成コンテンツとそのラベルを体系的に分析する。
論文 参考訳(メタデータ) (2025-08-01T19:41:27Z) - AMMeBa: A Large-Scale Survey and Dataset of Media-Based Misinformation In-The-Wild [1.4193873432298625]
オンラインメディアをベースとした誤情報に注釈を付けるために,ヒトラプターを用いた2年間の研究結果を示す。
偽情報クレームにおける生成AIベースのコンテンツの増加を示す。
また、歴史的に支配的な「単純な」手法、特に文脈操作を示す。
論文 参考訳(メタデータ) (2024-05-19T23:05:53Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - A Survey on Multimodal Disinformation Detection [33.89798158570927]
様々なモダリティの組み合わせをカバーするマルチモーダル情報検出技術について検討する。
複数のモダリティを考慮し、事実と有害性を考慮し、偽情報検出に取り組む必要性を論じる。
論文 参考訳(メタデータ) (2021-03-13T18:04:17Z) - Including Images into Message Veracity Assessment in Social Media [0.0]
ソーシャルメディアは、噂が広まるための土台を築き、ソーシャルメディアの信頼性に大きな影響を及ぼす可能性がある。
本稿では,テキストコンテンツと視覚コンテンツの両方の信頼性を解析することにより,ソーシャルネットワーク上でのメッセージの正確性を評価するための2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-20T08:42:17Z) - VisualCOMET: Reasoning about the Dynamic Context of a Still Image [97.20800299330078]
ビジュアルコモンセンス推論のためのフレームワークであるVisualCometを提案する。
VisualCometは、以前に起こりそうなイベント、次に起こる可能性のあるイベント、現在の人々の意図を予測する。
Visual Commonsense Graphsの最初の大規模リポジトリを紹介します。
論文 参考訳(メタデータ) (2020-04-22T19:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。