論文の概要: AI-Generated Faces in the Real World: A Large-Scale Case Study of Twitter Profile Images
- arxiv url: http://arxiv.org/abs/2404.14244v3
- Date: Thu, 03 Oct 2024 08:22:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-04 17:53:39.664831
- Title: AI-Generated Faces in the Real World: A Large-Scale Case Study of Twitter Profile Images
- Title(参考訳): 現実世界のAI生成顔:Twitterプロフィール画像の大規模ケーススタディ
- Authors: Jonas Ricker, Dennis Assenmacher, Thorsten Holz, Asja Fischer, Erwin Quiring,
- Abstract要約: われわれは,Twitter上でAI生成プロフィール画像の普及状況について,大規模な調査を行った。
約1500万枚のTwitterプロフィール写真を分析したところ、0.052%が人工的に生成され、プラットフォーム上での存在が確認された。
結果は、スパムや政治的増幅キャンペーンなど、いくつかの動機も明らかにしている。
- 参考スコア(独自算出の注目度): 26.891299948581782
- License:
- Abstract: Recent advances in the field of generative artificial intelligence (AI) have blurred the lines between authentic and machine-generated content, making it almost impossible for humans to distinguish between such media. One notable consequence is the use of AI-generated images for fake profiles on social media. While several types of disinformation campaigns and similar incidents have been reported in the past, a systematic analysis has been lacking. In this work, we conduct the first large-scale investigation of the prevalence of AI-generated profile pictures on Twitter. We tackle the challenges of a real-world measurement study by carefully integrating various data sources and designing a multi-stage detection pipeline. Our analysis of nearly 15 million Twitter profile pictures shows that 0.052% were artificially generated, confirming their notable presence on the platform. We comprehensively examine the characteristics of these accounts and their tweet content, and uncover patterns of coordinated inauthentic behavior. The results also reveal several motives, including spamming and political amplification campaigns. Our research reaffirms the need for effective detection and mitigation strategies to cope with the potential negative effects of generative AI in the future.
- Abstract(参考訳): 生成人工知能(AI)分野の最近の進歩は、真のコンテンツと機械生成コンテンツの境界を曖昧にしており、人間がそのようなメディアを区別することはほとんど不可能である。
顕著な結果のひとつは、ソーシャルメディア上のフェイクプロフィールにAI生成イメージを使用することだ。
これまでいくつかの偽情報キャンペーンや同様の事件が報告されてきたが、体系的な分析は乏しい。
本研究では,Twitter上でのAI生成プロフィール画像の普及状況について,大規模な調査を行った。
我々は,様々なデータソースを注意深く統合し,多段階検出パイプラインを設計することで,実世界の計測研究の課題に取り組む。
約1500万枚のTwitterプロフィール写真を分析したところ、0.052%が人工的に生成され、プラットフォーム上での存在が確認された。
我々はこれらのアカウントの特徴とそのつぶやき内容について包括的に検討し、協調した不正確な行動のパターンを明らかにする。
結果は、スパムや政治的増幅キャンペーンなど、いくつかの動機も明らかにしている。
我々の研究は、将来、生成AIの潜在的な負の効果に対処するための効果的な検出と緩和戦略の必要性を再確認する。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - AI-Face: A Million-Scale Demographically Annotated AI-Generated Face Dataset and Fairness Benchmark [12.368133562194267]
AI-Faceデータセットは、人口統計学的にアノテートされた最初のAI生成顔画像データセットである。
このデータセットに基づいて、さまざまなAI顔検出装置を評価するために、最初の総合的公正度ベンチマークを行う。
論文 参考訳(メタデータ) (2024-06-02T15:51:33Z) - Characteristics and prevalence of fake social media profiles with AI-generated faces [7.444681337745949]
生成人工知能(AI)の最近の進歩は、偽のソーシャルメディアアカウントを偽造する可能性を懸念している。
本稿では,GAN(Generative Adrial Networks)が生成した人物のプロフィール画像を用いたTwitterアカウントの体系的解析を行う。
我々は、詐欺、スパム、調整されたメッセージの増幅など、不正行為の拡散に使われていることを示す。
論文 参考訳(メタデータ) (2024-01-05T04:10:46Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Finding AI-Generated Faces in the Wild [9.390562437823078]
私たちは、AIが生成した顔と実際の顔を区別する、より狭いタスクに重点を置いています。
これは、不正なオンラインアカウントを偽のユーザープロフィール写真で扱う場合に特に当てはまる。
顔のみに焦点を合わせることで、よりレジリエントで汎用的なアーティファクトを検出することができることを示す。
論文 参考訳(メタデータ) (2023-11-14T22:46:01Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery and Data Poisoning Detection [57.51313366337142]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
生成AIを用いた視覚コンテンツ合成の領域では、画像偽造とデータ中毒が重要な関心事となっている。
DeepfakeArt Challenge(ディープフェイクアートチャレンジ)は、AIアートのジェネレーションとデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計された、大規模なチャレンジベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Open-Eye: An Open Platform to Study Human Performance on Identifying
AI-Synthesized Faces [51.56417104929796]
我々は、AI合成顔検出の人的パフォーマンスを研究するために、Open-eyeと呼ばれるオンラインプラットフォームを開発した。
本稿では,オープンアイの設計とワークフローについて述べる。
論文 参考訳(メタデータ) (2022-05-13T14:30:59Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。