論文の概要: A Marketplace for AI-Generated Adult Content and Deepfakes
- arxiv url: http://arxiv.org/abs/2601.09117v1
- Date: Wed, 14 Jan 2026 03:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.247628
- Title: A Marketplace for AI-Generated Adult Content and Deepfakes
- Title(参考訳): AIによるアダルトコンテンツとディープフェイクのマーケットプレース
- Authors: Shalmoli Ghosh, Matthew R. DeVerna, Filippo Menczer,
- Abstract要約: AI生成コンテンツのための人気のあるコミュニティ主導のプラットフォームであるCivitaiは、Bountiesと呼ばれる収益化機能を運用している。
プラットフォームローンチ後14ヶ月の間に収集した,公開可能なすべての報奨金要求の経時的分析を行った。
報奨金の市場は、ユーザーがAIモデルを学習していないコンテンツに向けて操縦できるツールによって支配されていることが分かっています。
- 参考スコア(独自算出の注目度): 2.1392057118867123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI systems increasingly enable the production of highly realistic synthetic media. Civitai, a popular community-driven platform for AI-generated content, operates a monetized feature called Bounties, which allows users to commission the generation of content in exchange for payment. To examine how this mechanism is used and what content it incentivizes, we conduct a longitudinal analysis of all publicly available bounty requests collected over a 14-month period following the platform's launch. We find that the bounty marketplace is dominated by tools that let users steer AI models toward content they were not trained to generate. At the same time, requests for content that is "Not Safe For Work" are widespread and have increased steadily over time, now comprising a majority of all bounties. Participation in bounty creation is uneven, with 20% of requesters accounting for roughly half of requests. Requests for "deepfake" - media depicting identifiable real individuals - exhibit a higher concentration than other types of bounties. A nontrivial subset of these requests involves explicit deepfakes despite platform policies prohibiting such content. These bounties disproportionately target female celebrities, revealing a pronounced gender asymmetry in social harm. Together, these findings show how monetized, community-driven generative AI platforms can produce gendered harms, raising questions about consent, governance, and enforcement.
- Abstract(参考訳): 生成AIシステムは、高度に現実的な合成メディアの作成を可能にする。
AI生成コンテンツのための人気のあるコミュニティ主導のプラットフォームであるCivitaiは、Bountiesと呼ばれる収益化機能を運用している。
このメカニズムがどのように利用され、どのコンテンツにインセンティブを与えるかを調べるため、プラットフォームローンチ後14ヶ月にわたって収集されたすべてのパブリックな報奨金要求を経時的に分析する。
報奨金の市場は、ユーザーがAIモデルを学習していないコンテンツに向けて操縦できるツールによって支配されていることが分かっています。
それと同時に、"Not Safe For Work" というコンテンツに対する要求が広まり、時間とともに着実に増加し、今やすべての報奨金の過半数を占めています。
報奨金作成への参加は不均一であり、リクエストの20%がリクエストの半分を占めている。
身元を特定できる人物を描写したメディア「ディープフェイク」の要請は、他の種類の報奨金よりも高い濃度を示している。
これらの要求の非自明なサブセットは、そのようなコンテンツを禁止しているプラットフォームポリシーにもかかわらず、明示的なディープフェイクを含んでいる。
これらの報奨金は不当に女性有名人をターゲットにしており、社会的危害の顕著な性別非対称性を明らかにしている。
これらの調査結果は、収益化されたコミュニティ主導のジェネレーティブAIプラットフォームが、ジェンダーによる害を生み出し、同意、ガバナンス、執行に関する疑問を提起する様子を示している。
関連論文リスト
- Can Media Act as a Soft Regulator of Safe AI Development? A Game Theoretical Analysis [57.68073583427415]
我々は、メディアの報道がAIクリエイターを安全な製品の生産に駆り立てる可能性があるかどうかを調査する。
われわれの結果は、メディアがクリエイターとユーザーとの協力を育むことができることは明らかだが、必ずしもそうではない。
大衆の認識を形作り、デベロッパーの責任を負うことによって、メディアは強力なソフトレギュレーターとして出現する。
論文 参考訳(メタデータ) (2025-09-02T12:13:34Z) - A Comprehensive Content Verification System for ensuring Digital Integrity in the Age of Deep Fakes [0.0]
本稿では,デジタルランドスケープ全体にわたる投稿やストーリーとして共有される画像やビデオの認証を目的とした,コンテンツ検証システムについて論じる。
このシステムによって、個人やインフルエンサーはデジタルフットプリントの正当性を検証することができ、相互接続された世界での評判を守ることができる。
論文 参考訳(メタデータ) (2024-11-29T14:47:47Z) - Social Media Bot Policies: Evaluating Passive and Active Enforcement [0.0]
マルチモーダル・ファンデーション・モデル(MFM)は、悪意あるアクターがオンラインユーザーを搾取するのを助長する可能性がある。
我々は、X(元Twitter)、Instagram、Facebook、Threads、TikTok、Mastodon、Reddit、LinkedInの8つのソーシャルメディアプラットフォームにおけるボットとコンテンツポリシーを調査した。
以上の結果から,これらのプラットフォームの現在の実施機構に重大な脆弱性があることが示唆された。
論文 参考訳(メタデータ) (2024-09-27T17:28:25Z) - English offensive text detection using CNN based Bi-GRU model [1.102674168371806]
FacebookやTwitterのようなソーシャルネットワークサイトは、ワンクリックで大量のコンテンツを共有できるプラットフォームを提供している。
これらのプラットフォームは、アップロードされたコンテンツに制限を課していない。
テキストが攻撃的であるか否かを分類する新しいBi-GRU-CNNモデルを提案する。
論文 参考訳(メタデータ) (2024-09-24T01:29:24Z) - "Violation of my body:" Perceptions of AI-generated non-consensual (intimate) imagery [22.68931586977199]
AI技術は、超現実的な合成メディアであるディープフェイクの作成を可能にした。
我々は米国の315人の個人を対象に、それらを描いたディープフェイクの仮説的非合意創造に関する彼らの見解を調査した。
論文 参考訳(メタデータ) (2024-06-08T16:57:20Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。