論文の概要: Blameless Users in a Clean Room: Defining Copyright Protection for Generative Models
- arxiv url: http://arxiv.org/abs/2506.19881v1
- Date: Mon, 23 Jun 2025 20:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.467337
- Title: Blameless Users in a Clean Room: Defining Copyright Protection for Generative Models
- Title(参考訳): クリーンルームのブラームレスユーザ:生成モデルに対する著作権保護の定義
- Authors: Aloni Cohen,
- Abstract要約: 近距離アクセス自由度(NAF)だけでは侵害を防げないことを示す。
意味のある保証を定義するために、非難なしコピー保護フレームワークを導入します。
差分プライバシーと著作権に関する一般的な直観は,データセットが黄金である場合に,DPがクリーンルームコピー保護を意味することを証明することによって定式化する。
- 参考スコア(独自算出の注目度): 3.8943386248864047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Are there any conditions under which a generative model's outputs are guaranteed not to infringe the copyrights of its training data? This is the question of "provable copyright protection" first posed by Vyas, Kakade, and Barak (ICML 2023). They define near access-freeness (NAF) and propose it as sufficient for protection. This paper revisits the question and establishes new foundations for provable copyright protection -- foundations that are firmer both technically and legally. First, we show that NAF alone does not prevent infringement. In fact, NAF models can enable verbatim copying, a blatant failure of copy protection that we dub being tainted. Then, we introduce our blameless copy protection framework for defining meaningful guarantees, and instantiate it with clean-room copy protection. Clean-room copy protection allows a user to control their risk of copying by behaving in a way that is unlikely to copy in a counterfactual clean-room setting. Finally, we formalize a common intuition about differential privacy and copyright by proving that DP implies clean-room copy protection when the dataset is golden, a copyright deduplication requirement.
- Abstract(参考訳): 生成モデルの出力がトレーニングデータの著作権を侵害しないように保証されている条件はありますか?
これは、Vyas, Kakade, and Barak (ICML 2023) が最初に提起した「証明可能な著作権保護」の問題である。
彼らは近距離アクセス自由度(NAF)を定義し、保護のためにそれを提案する。
本稿は、技術的・法的に堅固な著作権保護のための新たな基盤を確立するものである。
まず、NAFだけでは侵害を防げないことを示す。
実際、NAFモデルは、私たちが汚染されているコピー保護の緩やかな失敗である動詞のコピーを可能にすることができる。
そこで我々は,有意義な保証を定義するための非難なしコピー保護フレームワークを導入し,クリーンルームコピー保護でインスタンス化する。
クリーンルームのコピー保護により、ユーザは、偽のクリーンルーム設定でコピーする可能性が低い方法で、振る舞いによってコピーのリスクを制御することができる。
最後に,データセットが黄金である場合,DPがクリーンルームコピー保護を意味することを証明して,差分プライバシーと著作権に関する一般的な直観を定式化する。
関連論文リスト
- PersGuard: Preventing Malicious Personalization via Backdoor Attacks on Pre-trained Text-to-Image Diffusion Models [51.458089902581456]
特定の画像の悪質なパーソナライズを防ぐ新しいバックドアベースのアプローチであるPersGuardを紹介する。
我々の手法は既存の技術よりも優れており、プライバシーと著作権保護に対するより堅牢なソリューションを提供する。
論文 参考訳(メタデータ) (2025-02-22T09:47:55Z) - Copyright-Protected Language Generation via Adaptive Model Fusion [15.48692649098646]
copyright-Protecting Model Fusion (CP-Fuse) は、推論中に著作権物質の不連続なセットで訓練されたモデルを組み合わせる新しいアプローチである。
CP-Fuseは,テキストの品質やコード生成を損なうことなく,保護された素材の再生を著しく低減することを示す。
論文 参考訳(メタデータ) (2024-12-09T16:13:17Z) - CopyrightShield: Spatial Similarity Guided Backdoor Defense against Copyright Infringement in Diffusion Models [61.06621533874629]
拡散モデルは 著作権侵害の標的だ
本稿では拡散モデルにおける複製の空間的類似性を詳細に解析する。
本稿では,著作権侵害攻撃を対象とする新たな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - Strong Copyright Protection for Language Models via Adaptive Model Fusion [15.48692649098646]
Copyright-Protecting Fusion (CP-Fuse) は、言語モデルを適応的に組み合わせて保護された物質の再生を最小限にするアルゴリズムである。
その結果,CP-Fuseは高品質なテキストとコード生成を維持しつつ,著作権のあるコンテンツの記憶を著しく減少させることがわかった。
論文 参考訳(メタデータ) (2024-07-29T15:32:30Z) - SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation [24.644101178288476]
大規模言語モデル(LLM)は機械学習に変化をもたらしたが、重大な法的懸念を引き起こした。
LLMは著作権を侵害したり、著作権のないテキストを過剰に制限したりすることができる。
本稿では,著作権テキストの発生を防止するために,軽量でリアルタイムな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T18:00:03Z) - CPR: Retrieval Augmented Generation for Copyright Protection [101.15323302062562]
本稿では,著作権保護の強いRAGの新しい手法であるRetrieval(CPR)を用いたCopyProtected生成について紹介する。
CPRは、取得した画像のセットに拡散モデルの出力を条件付けることができる。
CPRは、攻撃者が生成した画像から抽出できる可能性のある情報の量を制限するNear Access Freeness (NAF) を満たすことを証明している。
論文 参考訳(メタデータ) (2024-03-27T18:09:55Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Can Copyright be Reduced to Privacy? [23.639303165101385]
アルゴリズムの安定性は、コピーを検出する実用的なツールとして認識されるかもしれないが、そのようなコピーは必ずしも著作権侵害を構成するものではない、と我々は主張する。
著作権侵害の確立の基準として採択された場合、アルゴリズム的安定性は著作権法の意図された目的を損なう可能性がある。
論文 参考訳(メタデータ) (2023-05-24T07:22:41Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。