論文の概要: Guardians of Generation: Dynamic Inference-Time Copyright Shielding with Adaptive Guidance for AI Image Generation
- arxiv url: http://arxiv.org/abs/2503.16171v1
- Date: Wed, 19 Mar 2025 15:31:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:31:52.824414
- Title: Guardians of Generation: Dynamic Inference-Time Copyright Shielding with Adaptive Guidance for AI Image Generation
- Title(参考訳): ジェネレーションのガーディアン:AI画像生成のための適応ガイダンス付き動的推論時著作権保護
- Authors: Soham Roy, Abhishek Mishra, Shirish Karande, Murari Mandal,
- Abstract要約: 現代のテキスト画像生成モデルは、トレーニングデータに記憶された著作権のあるコンテンツを不注意に再現することができる。
本稿では,AI画像生成における動的著作権保護のためのモデル非依存推論時間フレームワークであるGuardians of Generationを紹介する。
本手法は, 安定拡散, SDXL, Flux など, 様々な生成モデルを用いて検証する。
- 参考スコア(独自算出の注目度): 8.795449612386212
- License:
- Abstract: Modern text-to-image generative models can inadvertently reproduce copyrighted content memorized in their training data, raising serious concerns about potential copyright infringement. We introduce Guardians of Generation, a model agnostic inference time framework for dynamic copyright shielding in AI image generation. Our approach requires no retraining or modification of the generative model weights, instead integrating seamlessly with existing diffusion pipelines. It augments the generation process with an adaptive guidance mechanism comprising three components: a detection module, a prompt rewriting module, and a guidance adjustment module. The detection module monitors user prompts and intermediate generation steps to identify features indicative of copyrighted content before they manifest in the final output. If such content is detected, the prompt rewriting mechanism dynamically transforms the user's prompt by sanitizing or replacing references that could trigger copyrighted material while preserving the prompt's intended semantics. The adaptive guidance module adaptively steers the diffusion process away from flagged content by modulating the model's sampling trajectory. Together, these components form a robust shield that enables a tunable balance between preserving creative fidelity and ensuring copyright compliance. We validate our method on a variety of generative models such as Stable Diffusion, SDXL, and Flux, demonstrating substantial reductions in copyrighted content generation with negligible impact on output fidelity or alignment with user intent. This work provides a practical, plug-and-play safeguard for generative image models, enabling more responsible deployment under real-world copyright constraints. Source code is available at: https://respailab.github.io/gog
- Abstract(参考訳): 現代のテキストから画像への生成モデルは、トレーニングデータに記憶された著作権のあるコンテンツを不注意に再現することができ、著作権侵害の可能性への深刻な懸念を引き起こす。
本稿では,AI画像生成における動的著作権保護のためのモデル非依存推論時間フレームワークであるGuardians of Generationを紹介する。
当社のアプローチでは,生成モデルウェイトの再トレーニングや修正は必要とせず,既存の拡散パイプラインとシームレスに統合する。
これは、検出モジュール、プロンプト書き換えモジュール、ガイダンス調整モジュールの3つのコンポーネントからなる適応誘導機構で生成プロセスを増強する。
検出モジュールは、最終出力に現れる前に、ユーザプロンプトと中間生成ステップを監視して、著作権のあるコンテンツを示す特徴を特定する。
このような内容が検出された場合、プロンプト書き換え機構は、プロンプトの意図した意味を保ちながら、著作権物質をトリガーする参照を消毒または置き換えることで、ユーザのプロンプトを動的に変換する。
適応誘導モジュールは、モデルのサンプリング軌道を変調することにより、拡散過程をフラグ付きコンテンツから遠ざける。
これらのコンポーネントは共に堅牢なシールドを形成し、創造的な忠実さを保ち、著作権の遵守を保証するための調整可能なバランスを可能にする。
本手法は, 安定拡散, SDXL, Flux などの多種多様な生成モデルを用いて検証し, 出力忠実度やユーザ意図との整合性に無視できる影響で, 著作権コンテンツ生成の大幅な削減を実証する。
この作業は、生成イメージモデルのための実用的なプラグアンドプレイセーフガードを提供し、現実世界の著作権制約の下でより責任あるデプロイメントを可能にする。
ソースコードは、https://respailab.github.io/gog.comで入手できる。
関連論文リスト
- DuMo: Dual Encoder Modulation Network for Precise Concept Erasure [75.05165577219425]
非ターゲット概念に対する最小限の障害を伴う不適切なターゲット概念の正確な消去を実現するDuMo(Dual Encoder Modulation Network)を提案する。
提案手法は, 明示的コンテンツ消去, カートゥーン概念除去, アーティスティックスタイル消去における最先端性能を実現し, 代替手法よりも明らかに優れている。
論文 参考訳(メタデータ) (2025-01-02T07:47:34Z) - Copyright-Protected Language Generation via Adaptive Model Fusion [15.48692649098646]
copyright-Protecting Model Fusion (CP-Fuse) は、推論中に著作権物質の不連続なセットで訓練されたモデルを組み合わせる新しいアプローチである。
CP-Fuseは,テキストの品質やコード生成を損なうことなく,保護された素材の再生を著しく低減することを示す。
論文 参考訳(メタデータ) (2024-12-09T16:13:17Z) - Safety Alignment Backfires: Preventing the Re-emergence of Suppressed Concepts in Fine-tuned Text-to-Image Diffusion Models [57.16056181201623]
微調整されたテキストと画像の拡散モデルは、必然的に安全対策を解除し、有害な概念を再現する。
本報告では,Funice-Tuning LoRAコンポーネントとは別に,安全性の低い適応モジュールをトレーニングする,Modular LoRAと呼ばれる新しいソリューションを提案する。
本手法は,新しいタスクにおけるモデルの性能を損なうことなく,有害なコンテンツの再学習を効果的に防止する。
論文 参考訳(メタデータ) (2024-11-30T04:37:38Z) - Safety Without Semantic Disruptions: Editing-free Safe Image Generation via Context-preserving Dual Latent Reconstruction [88.18235230849554]
大規模で未処理のデータセットでマルチモーダル生成モデルをトレーニングすることで、ユーザは有害で安全でない、議論の余地のない、文化的に不適切なアウトプットにさらされる可能性がある。
我々は、安全な埋め込みと、より安全な画像を生成するために、潜伏空間の重み付け可能な総和による修正拡散プロセスを活用する。
安全と検閲のトレードオフを特定し、倫理的AIモデルの開発に必要な視点を提示します。
論文 参考訳(メタデータ) (2024-11-21T09:47:13Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Strong Copyright Protection for Language Models via Adaptive Model Fusion [15.48692649098646]
Copyright-Protecting Fusion (CP-Fuse) は、言語モデルを適応的に組み合わせて保護された物質の再生を最小限にするアルゴリズムである。
その結果,CP-Fuseは高品質なテキストとコード生成を維持しつつ,著作権のあるコンテンツの記憶を著しく減少させることがわかった。
論文 参考訳(メタデータ) (2024-07-29T15:32:30Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - BLIP-Diffusion: Pre-trained Subject Representation for Controllable
Text-to-Image Generation and Editing [73.74570290836152]
BLIP-Diffusionはマルチモーダル制御をサポートする新しい主観駆動画像生成モデルである。
他の主観駆動生成モデルとは異なり、BLIP-Diffusionは主観表現を提供するために事前訓練された新しいマルチモーダルエンコーダを導入する。
論文 参考訳(メタデータ) (2023-05-24T04:51:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。