論文の概要: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth
- arxiv url: http://arxiv.org/abs/2403.12838v1
- Date: Tue, 19 Mar 2024 15:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 13:44:06.766827
- Title: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth
- Title(参考訳): スパマーとスカマーは、聴衆の成長のためにFacebookでAI生成画像を活用する
- Authors: Renee DiResta, Josh A. Goldstein,
- Abstract要約: スパマーや詐欺師は、すでにAI生成画像を使ってFacebook上で大きな注目を集めている。
時には、Facebook Feedは未ラベルのAI生成画像をPagesにフォローせず、画像がAI生成であることを認識していないユーザーに推奨している。
- 参考スコア(独自算出の注目度): 0.9865722130817715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of the research and discourse on risks from artificial intelligence (AI) image generators, such as DALL-E and Midjourney, has centered around whether they could be used to inject false information into political discourse. We show that spammers and scammers - seemingly motivated by profit or clout, not ideology - are already using AI-generated images to gain significant traction on Facebook. At times, the Facebook Feed is recommending unlabeled AI-generated images to users who neither follow the Pages posting the images nor realize that the images are AI-generated, highlighting the need for improved transparency and provenance standards as AI models proliferate.
- Abstract(参考訳): DALL-EやMidjourneyのような人工知能(AI)画像生成装置のリスクに関する研究や談話の多くは、偽情報を政治的談話に注入できるかどうかに焦点を絞っている。
スパマーや詐欺師は、イデオロギーではなく利益や利益によって動機づけられているように見えるが、すでにAI生成画像を使ってFacebook上で大きな注目を集めている。
時には、Facebook Feedは、画像の投稿をPagesにフォローせず、画像がAI生成であることを認識していないユーザーに、ラベルなしのAI生成イメージを推奨する。
関連論文リスト
- AI-Generated Faces in the Real World: A Large-Scale Case Study of Twitter Profile Images [26.891299948581782]
われわれは,Twitter上でAI生成プロフィール画像の普及状況について,大規模な調査を行った。
約1500万枚のTwitterプロフィール写真を分析したところ、0.052%が人工的に生成され、プラットフォーム上での存在が確認された。
結果は、スパムや政治的増幅キャンペーンなど、いくつかの動機も明らかにしている。
論文 参考訳(メタデータ) (2024-04-22T14:57:17Z) - AI-Generated Images Introduce Invisible Relevance Bias to Text-Image
Retrieval [70.54890125718387]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Finding AI-Generated Faces in the Wild [9.390562437823078]
私たちは、AIが生成した顔と実際の顔を区別する、より狭いタスクに重点を置いています。
これは、不正なオンラインアカウントを偽のユーザープロフィール写真で扱う場合に特に当てはまる。
顔のみに焦点を合わせることで、よりレジリエントで汎用的なアーティファクトを検出することができることを示す。
論文 参考訳(メタデータ) (2023-11-14T22:46:01Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - DeepfakeArt Challenge: A Benchmark Dataset for Generative AI Art Forgery
and Data Poisoning Detection [79.06544706290568]
悪意ある目的のために生成的AIを使用することについて懸念が高まっている。
DeepfakeArt Challengeは、生成AIアート偽造とデータ中毒検出のための機械学習アルゴリズムの構築を支援するために設計されたベンチマークデータセットである。
論文 参考訳(メタデータ) (2023-06-02T05:11:27Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - BLADERUNNER: Rapid Countermeasure for Synthetic (AI-Generated) StyleGAN
Faces [0.0]
StyleGANはNVIDIAが開発したオープンソース実装である。
サイバー&インフォメーションオペレーションに対するAI/MLの関連性について調査する。
Project Blade RunnerはStyleGANイメージに対抗するために必要な2つのスクリプトを含んでいる。
論文 参考訳(メタデータ) (2022-10-12T21:05:35Z) - Open-Eye: An Open Platform to Study Human Performance on Identifying
AI-Synthesized Faces [51.56417104929796]
我々は、AI合成顔検出の人的パフォーマンスを研究するために、Open-eyeと呼ばれるオンラインプラットフォームを開発した。
本稿では,オープンアイの設計とワークフローについて述べる。
論文 参考訳(メタデータ) (2022-05-13T14:30:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。