論文の概要: Situating the social issues of image generation models in the model life
cycle: a sociotechnical approach
- arxiv url: http://arxiv.org/abs/2311.18345v1
- Date: Thu, 30 Nov 2023 08:32:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 17:31:27.123952
- Title: Situating the social issues of image generation models in the model life
cycle: a sociotechnical approach
- Title(参考訳): モデルライフサイクルにおける画像生成モデルの社会的問題--社会技術的アプローチ
- Authors: Amelia Katirai, Noa Garcia, Kazuki Ide, Yuta Nakashima, Atsuo
Kishimoto
- Abstract要約: 本稿では,画像生成モデルに関連する社会問題の包括的分類について報告する。
データ問題,知的財産権,バイアス,プライバシ,情報,文化,自然環境など,画像生成モデルから生じる7つのイシュークラスタを特定します。
画像生成モデルによって引き起こされるリスクは、大きな言語モデルによってもたらされるリスクと重大であると主張する。
- 参考スコア(独自算出の注目度): 22.52767766394583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The race to develop image generation models is intensifying, with a rapid
increase in the number of text-to-image models available. This is coupled with
growing public awareness of these technologies. Though other generative AI
models--notably, large language models--have received recent critical attention
for the social and other non-technical issues they raise, there has been
relatively little comparable examination of image generation models. This paper
reports on a novel, comprehensive categorization of the social issues
associated with image generation models. At the intersection of machine
learning and the social sciences, we report the results of a survey of the
literature, identifying seven issue clusters arising from image generation
models: data issues, intellectual property, bias, privacy, and the impacts on
the informational, cultural, and natural environments. We situate these social
issues in the model life cycle, to aid in considering where potential issues
arise, and mitigation may be needed. We then compare these issue clusters with
what has been reported for large language models. Ultimately, we argue that the
risks posed by image generation models are comparable in severity to the risks
posed by large language models, and that the social impact of image generation
models must be urgently considered.
- Abstract(参考訳): 画像生成モデルの開発競争は激化しており、利用可能なテキスト-画像モデルの数も急速に増加している。
これは、これらの技術に対する大衆の意識の高まりと相まっている。
他の生成型AIモデル(特に大きな言語モデル)は、彼らが提起する社会的および他の技術的問題に対して最近批判的な注目を集めてきたが、画像生成モデルの比較は比較的少ない。
本稿では,画像生成モデルに関連する社会問題の包括的分類について報告する。
機械学習と社会科学の交差点では,データ問題,知的財産権,バイアス,プライバシ,情報,文化,自然環境への影響など,画像生成モデルから生じる7つの課題クラスタを特定し,文献調査の結果を報告する。
これらの社会問題をモデルライフサイクルに配置し、潜在的な問題が発生する場所や緩和の必要性を考慮し、支援する。
次に、これらの問題クラスタを、大規模言語モデルで報告されているものと比較する。
最終的に、画像生成モデルによって引き起こされるリスクは、大きな言語モデルによってもたらされるリスクと重大であり、画像生成モデルによる社会的影響は、緊急に考慮されなければならないと論じる。
関連論文リスト
- T-HITL Effectively Addresses Problematic Associations in Image
Generation and Maintains Overall Visual Quality [52.5529784801908]
我々は、人口集団と意味概念の間の問題的関連性の生成に焦点をあてる。
本稿では,問題のある関連の低減と視覚的品質の維持を両立させるため,T-HITL(two- Human-in-the-loop)を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:29:33Z) - New Job, New Gender? Measuring the Social Bias in Image Generation
Models [88.93677200602887]
画像生成モデルは、与えられたテキストから画像を生成し、編集することができる。
DALL-EとMidjourneyによる画像生成技術の最近の進歩は画期的なものである。
これらの高度なモデルは、しばしば巨大なインターネットデータセットでトレーニングされており、社会的ステレオタイプとバイアスを永続するコンテンツを生成することに感受性がある。
画像生成モデルにおける社会的バイアスを的確に、かつ、包括的に引き起こすことのできる新しいテストフレームワークであるBiasPainterを提案する。
論文 参考訳(メタデータ) (2024-01-01T14:06:55Z) - Language Agents for Detecting Implicit Stereotypes in Text-to-image
Models at Scale [45.64096601242646]
テキスト・ツー・イメージモデルにおけるステレオタイプ検出に適した新しいエージェントアーキテクチャを提案する。
複数のオープンテキストデータセットに基づいたステレオタイプ関連ベンチマークを構築した。
これらのモデルは、個人的特性に関する特定のプロンプトに関して、深刻なステレオタイプを示すことが多い。
論文 参考訳(メタデータ) (2023-10-18T08:16:29Z) - Limitations of Face Image Generation [12.11955119100926]
顔生成における生成モデルの有効性と欠点について検討した。
テキストプロンプトへの忠実度、人口格差、分布変化など、顔画像生成のいくつかの制限を識別する。
本稿では、学習データの選択が生成モデルの性能にどのように貢献するかを洞察する分析モデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T19:33:26Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - A Survey of Diffusion Based Image Generation Models: Issues and Their
Solutions [14.767446226216494]
オープンソースの安定拡散モデルにより、学術コミュニティは画像生成モデルの性能を広範囲に分析できるようになった。
本調査は、画像生成モデルに関する既存の問題と現在の解決策を検討することを目的としている。
論文 参考訳(メタデータ) (2023-08-25T02:35:54Z) - Human Image Generation: A Comprehensive Survey [60.63589576693112]
本稿では,人間の画像生成技術を3つのパラダイム,すなわちデータ駆動手法,知識誘導手法,ハイブリッド手法に分割する。
異なる手法の利点と特徴は、モデルアーキテクチャと入出力要求の観点から要約される。
幅広い応用可能性のために、合成された人間の画像の典型的なダウンストリーム利用、すなわち、個人認識タスクのためのデータ拡張と、ファッション顧客のためのバーチャルトライオンの2つがカバーされている。
論文 参考訳(メタデータ) (2022-12-17T15:19:45Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Membership Inference Attacks Against Text-to-image Generation Models [23.39695974954703]
本稿では,メンバシップ推論のレンズを用いたテキスト・画像生成モデルの最初のプライバシ解析を行う。
本稿では,メンバーシップ情報に関する3つの重要な直観と,それに応じて4つの攻撃手法を設計する。
提案した攻撃はいずれも大きな性能を達成でき、場合によっては精度が1に近い場合もあり、既存のメンバーシップ推論攻撃よりもはるかに深刻なリスクとなる。
論文 参考訳(メタデータ) (2022-10-03T14:31:39Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。