論文の概要: Image-Perfect Imperfections: Safety, Bias, and Authenticity in the Shadow of Text-To-Image Model Evolution
- arxiv url: http://arxiv.org/abs/2408.17285v1
- Date: Fri, 30 Aug 2024 13:33:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 15:18:38.029347
- Title: Image-Perfect Imperfections: Safety, Bias, and Authenticity in the Shadow of Text-To-Image Model Evolution
- Title(参考訳): 画像欠陥:テキストから画像へのモデル進化の影における安全性、バイアス、正当性
- Authors: Yixin Wu, Yun Shen, Michael Backes, Yang Zhang,
- Abstract要約: 本研究は,安全性,バイアス,信頼性の観点から,テキスト・ツー・イメージ・モデルの進化を研究するための第一歩を踏み出した。
以上の結果から, モデル更新が混在していることが明らかとなった。
負のステレオタイプは、同じ非ホワイトレースグループ内に留まるか、SD更新を通じて他の非ホワイトレースグループにシフトする。
初期のSDバージョンのために訓練された最先端の偽画像検出器は、更新されたバージョンによって生成された偽画像を特定するのに苦労している。
- 参考スコア(独自算出の注目度): 34.058310668475066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image models, such as Stable Diffusion (SD), undergo iterative updates to improve image quality and address concerns such as safety. Improvements in image quality are straightforward to assess. However, how model updates resolve existing concerns and whether they raise new questions remain unexplored. This study takes an initial step in investigating the evolution of text-to-image models from the perspectives of safety, bias, and authenticity. Our findings, centered on Stable Diffusion, indicate that model updates paint a mixed picture. While updates progressively reduce the generation of unsafe images, the bias issue, particularly in gender, intensifies. We also find that negative stereotypes either persist within the same Non-White race group or shift towards other Non-White race groups through SD updates, yet with minimal association of these traits with the White race group. Additionally, our evaluation reveals a new concern stemming from SD updates: State-of-the-art fake image detectors, initially trained for earlier SD versions, struggle to identify fake images generated by updated versions. We show that fine-tuning these detectors on fake images generated by updated versions achieves at least 96.6\% accuracy across various SD versions, addressing this issue. Our insights highlight the importance of continued efforts to mitigate biases and vulnerabilities in evolving text-to-image models.
- Abstract(参考訳): 安定拡散(SD)のようなテキスト・ツー・イメージのモデルでは、画像の品質向上と安全性などの問題への対処のために反復的な更新が行われている。
画質の改善は簡単に評価できる。
しかし、どのようにモデル更新が既存の懸念を解決し、新たな疑問を提起するかは未定のままである。
本研究は,安全性,バイアス,信頼性の観点から,テキスト・ツー・イメージ・モデルの進化を研究するための第一歩を踏み出した。
以上の結果から, モデル更新が混在していることが明らかとなった。
アップデートによって安全でない画像の生成が徐々に減少する一方で、特に性別におけるバイアスの問題が強まります。
また、負のステレオタイプが同じ非ホワイトレースグループ内に留まるか、SD更新によって他の非ホワイトレースグループに移行するか、ホワイトレースグループと最小限の関連性を持つことがわかった。
最先端の偽画像検出器は、初期のSDバージョンのために訓練され、更新されたバージョンによって生成された偽画像を特定するのに苦労しています。
これらの検出器を更新版によって生成された偽画像に微調整することで、様々なSDバージョンで少なくとも96.6\%の精度が得られ、この問題に対処できることが示されている。
私たちの洞察は、テキスト・ツー・イメージ・モデルの進化におけるバイアスと脆弱性を軽減するための継続的な努力の重要性を強調します。
関連論文リスト
- When Image Generation Goes Wrong: A Safety Analysis of Stable Diffusion Models [0.0]
本研究では,10種類の安定拡散モデルによる有害画像の生成能力について検討した。
これらのモデルが不適切なコンテンツを生成することによって有害なプロンプトに応答することを示す。
以上の結果から,観察されたモデルでは,拒絶行動や安全対策が完全に欠如していることが示唆された。
論文 参考訳(メタデータ) (2024-11-23T10:42:43Z) - Unstable Unlearning: The Hidden Risk of Concept Resurgence in Diffusion Models [13.479224197351673]
一見無関係な画像にテキストから画像への拡散モデルを微調整することで、以前は「未学習」だった概念を「再学習」することができることを示す。
この結果から,インクリメンタルなモデル更新の脆弱さが浮き彫りになった。
論文 参考訳(メタデータ) (2024-10-10T16:10:27Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - Prompting4Debugging: Red-Teaming Text-to-Image Diffusion Models by Finding Problematic Prompts [63.61248884015162]
テキストと画像の拡散モデルは、高品質なコンテンツ生成において顕著な能力を示している。
本研究では,拡散モデルの問題を自動検出するツールとして,Prompting4 Debugging (P4D)を提案する。
この結果から,従来のセーフプロンプトベンチマークの約半数は,本来 "セーフ" と考えられていたので,実際に多くのデプロイされた安全機構を回避できることがわかった。
論文 参考訳(メタデータ) (2023-09-12T11:19:36Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Safe Latent Diffusion: Mitigating Inappropriate Degeneration in
Diffusion Models [18.701950647429]
テキスト条件付き画像生成モデルは、劣化した人間の行動に悩まされる。
我々は、これらの望ましくない副作用に対処するために、安全な潜伏拡散(SLD)を提示する。
拡散過程において,SLDは不適切な画像部分を取り除き,抑制することを示す。
論文 参考訳(メタデータ) (2022-11-09T18:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。