論文の概要: Investigating Copyright Issues of Diffusion Models under Practical
Scenarios
- arxiv url: http://arxiv.org/abs/2311.12803v1
- Date: Fri, 15 Sep 2023 01:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:45:38.778667
- Title: Investigating Copyright Issues of Diffusion Models under Practical
Scenarios
- Title(参考訳): 実用シナリオにおける拡散モデルの著作権問題の検討
- Authors: Yang Zhang, Teoh Tze Tzun, Lim Wei Hern, Haonan Wang, Kenji Kawaguchi
- Abstract要約: 生成モデル、特に拡散モデルにおける著作権は近年顕著な関心事となっている。
拡散モデルにおける著作権研究のためのデータセット作成を容易にするデータ生成パイプラインを開発する。
以上の結果から,最新のStable Diffusion XLを含む,様々な拡散モデルにおける著作権侵害コンテンツの生成頻度が示唆された。
- 参考スコア(独自算出の注目度): 31.982360758956034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The issue of copyright in generative models, particularly diffusion models,
has become a prominent concern in recent years. Previous studies have
predominantly focused on copyright violation at the image level, where
generative models replicate copyrighted images entirely. Furthermore, these
earlier studies have examined copyright infringements mainly using prompts that
are semantically similar to target topics. However, copyright infringement can
be more nuanced than mere replication of whole images and can be triggered with
prompts that are less directly related to copyright topics. In our work, we
tackle the limitations of previous studies by delving into partial copyright
infringement, which treats parts of images as copyrighted content, using
prompts that are considerably different from copyrighted topics. We develop a
data generation pipeline that facilitates the creation of datasets for
copyright research in diffusion models. Using our pipeline, we create datasets
containing copyright infringement samples for different diffusion models. We
conduct evaluations on generated data under various criteria. Our results show
the prevalence of generating copyright-infringing content across a range of
diffusion models, including the latest Stable Diffusion XL.
- Abstract(参考訳): 生成モデル、特に拡散モデルにおける著作権の問題は近年、大きな関心事となっている。
以前の研究では、生成モデルが著作権のある画像を完全に複製する画像レベルでの著作権侵害に主に焦点が当てられていた。
さらに、これらの先行研究は、主にターゲットトピックにセマンティックに類似したプロンプトを用いて著作権侵害を調査した。
しかし、著作権侵害は、画像全体の複製よりもニュアンスが高く、著作権トピックに直接関連しないプロンプトでトリガーすることができる。
本研究では,画像の一部を著作権付きコンテンツとして扱う部分的著作権侵害を,著作権付きトピックとは大きく異なるプロンプトを用いて取り扱うことにより,過去の研究の限界に挑戦する。
拡散モデルにおける著作権研究のためのデータセット作成を容易にするデータ生成パイプラインを開発する。
パイプラインを使用して、異なる拡散モデルのための著作権侵害サンプルを含むデータセットを作成します。
様々な基準で生成データの評価を行う。
本研究は,最新の安定拡散xlを含む様々な拡散モデルにおいて,著作権侵害コンテンツの発生率を示す。
関連論文リスト
- Copyright-Aware Incentive Scheme for Generative Art Models Using Hierarchical Reinforcement Learning [42.63462923848866]
我々は,著作権法と裁判所における侵害に関する前例に基づく,新たな著作権基準を導入する。
次に、TRAK法を用いてデータ保持者の貢献度を推定する。
我々は,各ラウンドの予算とデータ保持者の報酬を決定するため,強化学習に基づく階層的な予算配分手法を設計する。
論文 参考訳(メタデータ) (2024-10-26T13:29:43Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Hey That's Mine Imperceptible Watermarks are Preserved in Diffusion
Generated Outputs [12.763826933561244]
そこで本研究では,透かしのないデータに基づいて学習した生成拡散モデルにより,これらの透かしを付加した新たな画像が生成されることを示す。
本システムは,コンテンツをオンラインで共有する際の知的財産権保護のソリューションを提供する。
論文 参考訳(メタデータ) (2023-08-22T02:06:27Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Understanding and Mitigating Copying in Diffusion Models [53.03978584040557]
安定拡散のような拡散モデルによって生成される画像は、ますます広まっている。
最近の研究や訴訟でも、これらのモデルがトレーニングデータを複製する傾向にあることが示されている。
論文 参考訳(メタデータ) (2023-05-31T17:58:02Z) - Diffusion Art or Digital Forgery? Investigating Data Replication in
Diffusion Models [53.03978584040557]
生成した画像とトレーニングサンプルを比較し、コンテンツが複製されたことを検知する画像検索フレームワークについて検討する。
フレームワークをオックスフォード花、Celeb-A、ImageNet、LAIONなど複数のデータセットでトレーニングされた拡散モデルに適用することにより、トレーニングセットのサイズがコンテンツ複製の速度にどのように影響するかを議論する。
論文 参考訳(メタデータ) (2022-12-07T18:58:02Z) - On the detection of synthetic images generated by diffusion models [18.12766911229293]
拡散モデル(DM)に基づく手法が注目されている。
DMはテキストベースのビジュアルコンテンツの作成を可能にする。
悪意のあるユーザーは、自分の攻撃に完全に適合した偽のメディアを生成し、配布することができる。
論文 参考訳(メタデータ) (2022-11-01T18:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。