論文の概要: MiRAGeNews: Multimodal Realistic AI-Generated News Detection
- arxiv url: http://arxiv.org/abs/2410.09045v1
- Date: Fri, 11 Oct 2024 17:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 16:58:09.767681
- Title: MiRAGeNews: Multimodal Realistic AI-Generated News Detection
- Title(参考訳): MiRAGeNews: マルチモーダルリアルAI生成ニュース検出
- Authors: Runsheng Huang, Liam Dugan, Yue Yang, Chris Callison-Burch,
- Abstract要約: 我々はAI生成フェイクニュースの拡散に対処するためのMiRAGeNewsデータセットを提案する。
私たちのデータセットは、人間に重大な課題をもたらします。
我々は、最先端のベースラインに対して+5.1%のF-1を向上するマルチモーダル検出器を訓練する。
- 参考スコア(独自算出の注目度): 45.067211436589126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of inflammatory or misleading "fake" news content has become increasingly common in recent years. Simultaneously, it has become easier than ever to use AI tools to generate photorealistic images depicting any scene imaginable. Combining these two -- AI-generated fake news content -- is particularly potent and dangerous. To combat the spread of AI-generated fake news, we propose the MiRAGeNews Dataset, a dataset of 12,500 high-quality real and AI-generated image-caption pairs from state-of-the-art generators. We find that our dataset poses a significant challenge to humans (60% F-1) and state-of-the-art multi-modal LLMs (< 24% F-1). Using our dataset we train a multi-modal detector (MiRAGe) that improves by +5.1% F-1 over state-of-the-art baselines on image-caption pairs from out-of-domain image generators and news publishers. We release our code and data to aid future work on detecting AI-generated content.
- Abstract(参考訳): 近年では、炎症性や誤解を招く「フェイク」ニュースの拡散がますます一般的になっている。
同時に、想像できるあらゆるシーンを描いたフォトリアリスティックな画像を生成するためにAIツールを使用するのは、これまで以上に簡単になっている。
AIが生成したフェイクニュースコンテンツという2つの組み合わせは、特に強力で危険なものだ。
AI生成フェイクニュースの拡散に対処するために、最先端のジェネレータから12,500の高品質のリアルおよびAI生成イメージキャプチャーペアのデータセットであるMiRAGeNews Datasetを提案する。
我々のデータセットは、人間(60% F-1)と最先端のマルチモーダルLSM(24% F-1)にとって重要な課題であることがわかった。
データセットを使用して、ドメイン外の画像ジェネレータやニュースパブリッシャからのイメージキャプチャペアによる最先端のベースラインよりも、+5.1%のF-1を改善するマルチモーダル検出器(MiRAGe)をトレーニングする。
AI生成コンテンツを検出するための今後の作業を支援するため、コードとデータを公開しています。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - The Adversarial AI-Art: Understanding, Generation, Detection, and Benchmarking [47.08666835021915]
本稿では,AI生成画像(AI-art)を敵のシナリオで理解し,検出するための体系的な試みを提案する。
ARIAという名前のデータセットには、アートワーク(絵画)、ソーシャルメディアイメージ、ニュース写真、災害シーン、アニメ画像の5つのカテゴリに140万以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-04-22T21:00:13Z) - AI-Generated Faces in the Real World: A Large-Scale Case Study of Twitter Profile Images [26.891299948581782]
われわれは,Twitter上でAI生成プロフィール画像の普及状況について,大規模な調査を行った。
約1500万枚のTwitterプロフィール写真を分析したところ、0.052%が人工的に生成され、プラットフォーム上での存在が確認された。
結果は、スパムや政治的増幅キャンペーンなど、いくつかの動機も明らかにしている。
論文 参考訳(メタデータ) (2024-04-22T14:57:17Z) - Raidar: geneRative AI Detection viA Rewriting [42.477151044325595]
大規模な言語モデル(LLM)は、書き直しのタスクを行う場合、AI生成テキストよりも人間の書き起こしテキストを変更する傾向にある。
テキストの書き直しを LLM に促し,出力の編集距離を計算することで,AI 生成コンテンツを検出する手法を提案する。
この結果から,機械自体のレンズを通した機械生成テキストのユニークなインプリントが明らかになった。
論文 参考訳(メタデータ) (2024-01-23T18:57:53Z) - TWIGMA: A dataset of AI-Generated Images with Metadata From Twitter [29.77283532841167]
TWIGMAは,2021年1月から2023年3月までに収集された800,000以上のgen-AI画像を含むデータセットである。
その結果,gen-AI画像には特徴があり,非gen-AI画像と比較すると,平均的,低変動性を示すことがわかった。
われわれは、Twitter上でAI生成画像のテーマの経年変化を観察し、ユーザーは芸術的に洗練されたコンテンツをますます共有している。
論文 参考訳(メタデータ) (2023-06-14T07:27:57Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。