論文の概要: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth
- arxiv url: http://arxiv.org/abs/2403.12838v1
- Date: Tue, 19 Mar 2024 15:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 13:44:06.766827
- Title: How Spammers and Scammers Leverage AI-Generated Images on Facebook for Audience Growth
- Title(参考訳): スパマーとスカマーは、聴衆の成長のためにFacebookでAI生成画像を活用する
- Authors: Renee DiResta, Josh A. Goldstein,
- Abstract要約: スパマーや詐欺師は、すでにAI生成画像を使ってFacebook上で大きな注目を集めている。
時には、Facebook Feedは未ラベルのAI生成画像をPagesにフォローせず、画像がAI生成であることを認識していないユーザーに推奨している。
- 参考スコア(独自算出の注目度): 0.9865722130817715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of the research and discourse on risks from artificial intelligence (AI) image generators, such as DALL-E and Midjourney, has centered around whether they could be used to inject false information into political discourse. We show that spammers and scammers - seemingly motivated by profit or clout, not ideology - are already using AI-generated images to gain significant traction on Facebook. At times, the Facebook Feed is recommending unlabeled AI-generated images to users who neither follow the Pages posting the images nor realize that the images are AI-generated, highlighting the need for improved transparency and provenance standards as AI models proliferate.
- Abstract(参考訳): DALL-EやMidjourneyのような人工知能(AI)画像生成装置のリスクに関する研究や談話の多くは、偽情報を政治的談話に注入できるかどうかに焦点を絞っている。
スパマーや詐欺師は、イデオロギーではなく利益や利益によって動機づけられているように見えるが、すでにAI生成画像を使ってFacebook上で大きな注目を集めている。
時には、Facebook Feedは、画像の投稿をPagesにフォローせず、画像がAI生成であることを認識していないユーザーに、ラベルなしのAI生成イメージを推奨する。
関連論文リスト
- MiRAGeNews: Multimodal Realistic AI-Generated News Detection [45.067211436589126]
我々はAI生成フェイクニュースの拡散に対処するためのMiRAGeNewsデータセットを提案する。
私たちのデータセットは、人間に重大な課題をもたらします。
我々は、最先端のベースラインに対して+5.1%のF-1を向上するマルチモーダル検出器を訓練する。
論文 参考訳(メタデータ) (2024-10-11T17:58:02Z) - AI-rays: Exploring Bias in the Gaze of AI Through a Multimodal Interactive Installation [7.939652622988465]
我々は、AIが参加者の外観から投機的アイデンティティを生成するインタラクティブなインスタレーションであるAI-rayを紹介する。
投機的なX線ビジョンを使用して、AIが生成する仮定と現実を対比し、AIの精査と偏見を比喩的に強調する。
論文 参考訳(メタデータ) (2024-10-03T18:44:05Z) - A Sanity Check for AI-generated Image Detection [49.08585395873425]
本稿では,AIによる画像検出の課題が解決されたかどうかの検査を行う。
既存の手法の一般化を定量化するために,Chameleonデータセット上で,既製のAI生成画像検出器を9つ評価した。
複数の専門家が同時に視覚的アーチファクトやノイズパターンを抽出するAI生成画像検出装置(AID)を提案する。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Finding AI-Generated Faces in the Wild [9.390562437823078]
私たちは、AIが生成した顔と実際の顔を区別する、より狭いタスクに重点を置いています。
これは、不正なオンラインアカウントを偽のユーザープロフィール写真で扱う場合に特に当てはまる。
顔のみに焦点を合わせることで、よりレジリエントで汎用的なアーティファクトを検出することができることを示す。
論文 参考訳(メタデータ) (2023-11-14T22:46:01Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Open-Eye: An Open Platform to Study Human Performance on Identifying
AI-Synthesized Faces [51.56417104929796]
我々は、AI合成顔検出の人的パフォーマンスを研究するために、Open-eyeと呼ばれるオンラインプラットフォームを開発した。
本稿では,オープンアイの設計とワークフローについて述べる。
論文 参考訳(メタデータ) (2022-05-13T14:30:59Z) - Explainable AI for Natural Adversarial Images [4.387699521196243]
人間は、AIの決定プロセスが自分自身を反映していると仮定する傾向があります。
ここでは、説明可能なAIの手法がこの仮定を破り、参加者が敵画像と標準画像のAI分類を予測するのに役立つかどうかを評価する。
正当性マップと実例の両方がAIエラーのキャッチを容易にするが、その効果は加法的ではなく、正当性マップは実例よりも効果的である。
論文 参考訳(メタデータ) (2021-06-16T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。