論文の概要: CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow
- arxiv url: http://arxiv.org/abs/2311.12847v1
- Date: Fri, 13 Oct 2023 13:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:20:53.451159
- Title: CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow
- Title(参考訳): CopyScope:拡散ワークフローにおけるモデルレベルの著作権侵害定量化
- Authors: Junlei Zhou and Jiashi Gao and Ziwei Wang and Xuetao Wei
- Abstract要約: 著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
- 参考スコア(独自算出の注目度): 6.6282087165087304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Web-based AI image generation has become an innovative art form that can
generate novel artworks with the rapid development of the diffusion model.
However, this new technique brings potential copyright infringement risks as it
may incorporate the existing artworks without the owners' consent. Copyright
infringement quantification is the primary and challenging step towards
AI-generated image copyright traceability. Previous work only focused on data
attribution from the training data perspective, which is unsuitable for tracing
and quantifying copyright infringement in practice because of the following
reasons: (1) the training datasets are not always available in public; (2) the
model provider is the responsible party, not the image. Motivated by this, in
this paper, we propose CopyScope, a new framework to quantify the infringement
of AI-generated images from the model level. We first rigorously identify
pivotal components within the AI image generation pipeline. Then, we propose to
take advantage of Fr\'echet Inception Distance (FID) to effectively capture the
image similarity that fits human perception naturally. We further propose the
FID-based Shapley algorithm to evaluate the infringement contribution among
models. Extensive experiments demonstrate that our work not only reveals the
intricacies of infringement quantification but also effectively depicts the
infringing models quantitatively, thus promoting accountability in AI
image-generation tasks.
- Abstract(参考訳): WebベースのAI画像生成は、拡散モデルの急速な発展とともに、新しいアート作品を生成できる革新的な芸術形式になりつつある。
しかし、この新技術は、所有者の同意なしに既存のアートワークを組み込む可能性があるため、著作権侵害の潜在的なリスクをもたらす。
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
本研究は,(1) トレーニングデータセットが必ずしも公開されていないこと,(2) モデル提供者はイメージではなく責任ある当事者であること,などの理由から,著作権侵害の追跡と定量化に適さない,トレーニングデータの観点からのデータ属性のみに着目した。
そこで本稿では,モデルレベルからai生成画像の侵害を定量化する新しいフレームワークであるコピースコープを提案する。
まず、AI画像生成パイプライン内の重要なコンポーネントを厳格に識別する。
次に、Fr'echet Inception Distance(FID)を利用して、人間の知覚に自然に適合する画像の類似性を効果的に捉えることを提案する。
さらに、モデル間の侵害貢献を評価するために、FIDに基づくShapleyアルゴリズムを提案する。
広範な実験により,本研究は侵害定量化の複雑さを明らかにするだけでなく,侵害モデルを定量的に表現し,ai画像生成タスクにおける説明責任を促進することを実証した。
関連論文リスト
- ©Plug-in Authorization for Human Content Copyright Protection in Text-to-Image Model [71.47762442337948]
最先端のモデルは、オリジナルクリエーターを信用せずに高品質なコンテンツを作成する。
本稿では,3つの操作 – 追加,抽出,組み合わせ – を導入した著作権プラグイン認証フレームワークを提案する。
抽出により、クリエーターは侵害モデルから著作権を回復することができ、組み合わせることでユーザーは異なる著作権プラグインをマージすることができる。
論文 参考訳(メタデータ) (2024-04-18T07:48:00Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - A Dataset and Benchmark for Copyright Protection from Text-to-Image Diffusion Models [51.5808323691985]
安定した拡散によって生成されたコンテンツと著作権保護下のコンテンツの潜在的な相関性を評価する体系的な研究の欠如がある。
この作業は、著作権保護に関する最初の大規模標準化データセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - WOUAF: Weight Modulation for User Attribution and Fingerprinting in Text-to-Image Diffusion Models [32.29120988096214]
本稿では,生成画像に責任を負うモデルフィンガープリントの新たなアプローチを提案する。
提案手法は,ユーザ固有のデジタル指紋に基づいて生成モデルを修正し,ユーザへ遡ることができるコンテンツにユニークな識別子を印字する。
論文 参考訳(メタデータ) (2023-06-07T19:44:14Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - Ablating Concepts in Text-to-Image Diffusion Models [57.9371041022838]
大規模テキスト・画像拡散モデルでは、強力な構成能力を持つ高忠実度画像を生成することができる。
これらのモデルは典型的には膨大な量のインターネットデータに基づいて訓練されており、しばしば著作権のある資料、ライセンスされた画像、個人写真を含んでいる。
本稿では,事前訓練されたモデルにおいて,目標概念の生成を防止し,効率的に概念を宣言する手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:59:42Z) - Transferable Class-Modelling for Decentralized Source Attribution of
GAN-Generated Images [4.1483423188102755]
我々は、一連の関連するバイナリ分類タスクとして、ディープフェイク検出とソース属性の問題を再定義する。
我々は、転送学習を活用して、複数の独立属性問題に対する偽検出ネットワークを迅速に適用する。
私たちのモデルは、現在のベンチマークと競合するように実験によって決定されます。
論文 参考訳(メタデータ) (2022-03-18T07:43:03Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。