論文の概要: A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models
- arxiv url: http://arxiv.org/abs/2403.12052v3
- Date: Fri, 21 Jun 2024 14:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 19:36:33.456810
- Title: A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models
- Title(参考訳): テキスト・画像拡散モデルから学習した著作権侵害のデータセットとベンチマーク
- Authors: Rui Ma, Qiang Zhou, Yizhu Jin, Daquan Zhou, Bangjun Xiao, Xiuyu Li, Yi Qu, Aishani Singh, Kurt Keutzer, Jingtong Hu, Xiaodong Xie, Zhen Dong, Shanghang Zhang, Shiji Zhou,
- Abstract要約: 著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
- 参考スコア(独自算出の注目度): 52.49582606341111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Copyright law confers upon creators the exclusive rights to reproduce, distribute, and monetize their creative works. However, recent progress in text-to-image generation has introduced formidable challenges to copyright enforcement. These technologies enable the unauthorized learning and replication of copyrighted content, artistic creations, and likenesses, leading to the proliferation of unregulated content. Notably, models like stable diffusion, which excel in text-to-image synthesis, heighten the risk of copyright infringement and unauthorized distribution.Machine unlearning, which seeks to eradicate the influence of specific data or concepts from machine learning models, emerges as a promising solution by eliminating the \enquote{copyright memories} ingrained in diffusion models. Yet, the absence of comprehensive large-scale datasets and standardized benchmarks for evaluating the efficacy of unlearning techniques in the copyright protection scenarios impedes the development of more effective unlearning methods. To address this gap, we introduce a novel pipeline that harmonizes CLIP, ChatGPT, and diffusion models to curate a dataset. This dataset encompasses anchor images, associated prompts, and images synthesized by text-to-image models. Additionally, we have developed a mixed metric based on semantic and style information, validated through both human and artist assessments, to gauge the effectiveness of unlearning approaches. Our dataset, benchmark library, and evaluation metrics will be made publicly available to foster future research and practical applications (https://rmpku.github.io/CPDM-page/, website / http://149.104.22.83/unlearning.tar.gz, dataset).
- Abstract(参考訳): 著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに委ねている。
しかし、近年のテキスト・画像生成の進歩は、著作権の執行に重大な課題をもたらしている。
これらの技術は、著作権のあるコンテンツの無許可の学習と複製、芸術的創造、そして類推を可能にし、規制されていないコンテンツの拡散につながる。
特に、テキスト・ツー・イメージ合成に優れた安定拡散のようなモデルは、著作権侵害や不正な配布のリスクを高め、機械学習モデルから特定のデータや概念の影響を根絶しようとするマカイン・アンラーニングは、拡散モデルに内在する「enquote{copyright memory"を排除し、有望な解決策として現れる。
しかし、著作権保護シナリオにおける非学習技術の有効性を評価するための包括的な大規模データセットと標準化されたベンチマークが欠如していることは、より効果的な非学習方法の開発を妨げる。
このギャップに対処するために、データセットをキュレートするためにCLIP、ChatGPT、拡散モデルを調和させる新しいパイプラインを導入します。
このデータセットは、アンカー画像、関連するプロンプト、およびテキスト・ツー・イメージ・モデルによって合成される画像を含む。
さらに,非学習的アプローチの有効性を評価するため,人間と芸術家の双方による評価を通じて,意味情報とスタイル情報に基づく混合メトリクスを開発した。
私たちのデータセット、ベンチマークライブラリ、評価メトリクスは、将来の研究と実践的アプリケーションを促進するために公開されます(https://rmpku.github.io/CPDM-page/, website / http://149.104.22.83/unlearning.tar.gz, dataset)。
関連論文リスト
- Concept Arithmetics for Circumventing Concept Inhibition in Diffusion Models [58.065255696601604]
拡散モデルの合成特性を使い、単一の画像生成において複数のプロンプトを利用することができる。
本論では, 画像生成の可能なすべてのアプローチを, 相手が適用可能な拡散モデルで検討することが重要であると論じる。
論文 参考訳(メタデータ) (2024-04-21T16:35:16Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Copyright Protection in Generative AI: A Technical Perspective [38.83972444347874]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - On Copyright Risks of Text-to-Image Diffusion Models [31.982360758956034]
拡散モデルは、テキストプロンプト(T2I)生成と呼ばれるタスクである、テキストプロンプトからのイメージの作成において優れている。
近年,直接的かつ著作権のあるプロンプトを用いた拡散モデルの著作権行動に関する研究が行われている。
私たちの研究は、間接的なプロンプトでさえ著作権問題を引き起こすような、より微妙な形態の侵害を調べることで、これを拡張しています。
論文 参考訳(メタデータ) (2023-09-15T01:34:02Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。