論文の概要: Perpetuating Misogyny with Generative AI: How Model Personalization Normalizes Gendered Harm
- arxiv url: http://arxiv.org/abs/2505.04600v2
- Date: Tue, 20 May 2025 08:13:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.230679
- Title: Perpetuating Misogyny with Generative AI: How Model Personalization Normalizes Gendered Harm
- Title(参考訳): モデルパーソナライゼーションによるジェンダーハームの正規化
- Authors: Laura Wagner, Eva Cetinic,
- Abstract要約: オープンソースのテキスト・トゥ・イメージ(TTI)パイプラインは、AI生成されたビジュアルコンテンツのランドスケープにおいて支配的になっている。
本研究では,オープンソースTTIモデルを共有・開発するための最もアクティブなプラットフォームであるCitvitAIの探索的社会技術分析について述べる。
我々は、安全でない仕事用コンテンツ(NSFW)の急増と、実際の個人を模倣することを目的としたかなりの数のモデルを見出した。
- 参考スコア(独自算出の注目度): 0.8103046443444949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-source text-to-image (TTI) pipelines have become dominant in the landscape of AI-generated visual content, driven by technological advances that enable users to personalize models through adapters tailored to specific tasks. While personalization methods such as LoRA offer unprecedented creative opportunities, they also facilitate harmful practices, including the generation of non-consensual deepfakes and the amplification of misogynistic or hypersexualized content. This study presents an exploratory sociotechnical analysis of CivitAI, the most active platform for sharing and developing open-source TTI models. Drawing on a dataset of more than 40 million user-generated images and over 230,000 models, we find a disproportionate rise in not-safe-for-work (NSFW) content and a significant number of models intended to mimic real individuals. We also observe a strong influence of internet subcultures on the tools and practices shaping model personalizations and resulting visual media. In response to these findings, we contextualize the emergence of exploitative visual media through feminist and constructivist perspectives on technology, emphasizing how design choices and community dynamics shape platform outcomes. Building on this analysis, we propose interventions aimed at mitigating downstream harm, including improved content moderation, rethinking tool design, and establishing clearer platform policies to promote accountability and consent.
- Abstract(参考訳): オープンソーステキスト・トゥ・イメージ(TTI)パイプラインは、特定のタスクに合わせたアダプタを通じてモデルをパーソナライズする技術進歩によって、AI生成されたビジュアルコンテンツのランドスケープにおいて支配的になっています。
LoRAのようなパーソナライズ手法は、前例のない創造的な機会を提供する一方で、非合意的なディープフェイクの生成や、誤認や過性化されたコンテンツの増幅など、有害な実践を促進する。
本研究では,オープンソースTTIモデルを共有・開発するための最もアクティブなプラットフォームであるCitvitAIの探索的社会技術分析について述べる。
4000万以上のユーザ生成イメージと23万以上のモデルからなるデータセットに基づいて、NSFW(un-safe-for-work)コンテンツが不均等に増加し、実際の個人を模倣するためのかなりの数のモデルが見つかった。
また,インターネットのサブカルチャーが,モデルパーソナライゼーションや視覚メディアを形作るツールや実践に強い影響を与えることも観察した。
これらの知見に応えて、フェミニスト的・構成主義的な技術観を通じて、搾取的視覚メディアの出現を文脈的に認識し、デザインの選択とコミュニティのダイナミクスがプラットフォームの結果をどう形作るかを強調した。
この分析に基づいて、コンテンツモデレーションの改善、ツールデザインの再考、説明責任と同意を促進するための明確なプラットフォームポリシーの確立など、下流の害を軽減するための介入を提案する。
関連論文リスト
- A Critical Assessment of Modern Generative Models' Ability to Replicate Artistic Styles [0.0]
本稿では,現代生成モデルのスタイル再現能力を批判的に評価する。
これらのモデルは,構造的整合性と構成的バランスを維持しつつ,従来の芸術様式をいかに効果的に再現するかを検討する。
この分析は、過去の芸術スタイルを模倣したAI生成作品の大規模なデータセットに基づいている。
論文 参考訳(メタデータ) (2025-02-21T07:00:06Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Autoregressive Models in Vision: A Survey [119.23742136065307]
本調査は、視覚に適用される自己回帰モデルに関する文献を包括的に調査する。
視覚的自己回帰モデルを,画素ベース,トークンベース,スケールベースを含む3つの一般的なサブカテゴリに分割する。
本稿では,画像生成,映像生成,3D生成,マルチモーダル生成など,コンピュータビジョンにおける自己回帰モデルの多面的分類を提案する。
論文 参考訳(メタデータ) (2024-11-08T17:15:12Z) - Civiverse: A Dataset for Analyzing User Engagement with Open-Source Text-to-Image Models [0.7209758868768352]
我々は、何百万もの画像と関連するメタデータを含むCiviverseプロンプトデータセットを解析する。
本稿では,テキストプロンプトのセマンティックな特徴について,プロンプト解析に着目する。
本研究は, 意味的コンテンツの均質化に焦点をあてた上で, 明示的コンテンツの生成を優先する傾向を示した。
論文 参考訳(メタデータ) (2024-08-10T21:41:03Z) - Exploring the Use of Abusive Generative AI Models on Civitai [22.509955105958625]
本稿では,AIGCソーシャルプラットフォームとして最大規模のCivitaiを用いて,乱用コンテンツの生成について検討する。
87Kモデルと2M画像を含む包括的データセットを構築した。
これらのプラットフォームをよりよく管理するためのモデレーション戦略について議論する。
論文 参考訳(メタデータ) (2024-07-16T06:18:03Z) - A Survey on Personalized Content Synthesis with Diffusion Models [53.79316736660402]
本稿では,テストタイム微調整(TTF)と事前学習適応(PTA)に分類できるPCS研究の一般的な枠組みを紹介する。
対象、顔、スタイルのパーソナライゼーションといった分野における専門的なタスクを探求し、独自の課題とイノベーションを強調します。
有望な進展にもかかわらず、我々は、オーバーフィッティングや、主題の忠実さとテキストアライメントのトレードオフなど、現在進行中の課題についても議論する。
論文 参考訳(メタデータ) (2024-05-09T04:36:04Z) - Multimodal Large Language Model is a Human-Aligned Annotator for Text-to-Image Generation [87.50120181861362]
VisionPreferは高品質できめ細かい選好データセットで、複数の選好面をキャプチャする。
我々は、VisionPrefer上で報酬モデルVP-Scoreをトレーニングし、テキストから画像への生成モデルのトレーニングを指導し、VP-Scoreの嗜好予測精度は人間のアノテーションに匹敵する。
論文 参考訳(メタデータ) (2024-04-23T14:53:15Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Modeling Content Creator Incentives on Algorithm-Curated Platforms [76.53541575455978]
本研究では,アルゴリズムの選択が露出ゲームにおける(ナッシュ)平衡の存在と性格にどのように影響するかを検討する。
本研究では、露出ゲームにおける平衡を数値的に見つけるためのツールを提案し、MovieLensとLastFMデータセットの監査結果を示す。
論文 参考訳(メタデータ) (2022-06-27T08:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。