論文の概要: Certified Mitigation of Worst-Case LLM Copyright Infringement
- arxiv url: http://arxiv.org/abs/2504.16046v2
- Date: Wed, 23 Apr 2025 16:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.806762
- Title: Certified Mitigation of Worst-Case LLM Copyright Infringement
- Title(参考訳): 最悪のLCM著作権侵害の認定緩和
- Authors: Jingyu Zhang, Jiacan Yu, Marc Marone, Benjamin Van Durme, Daniel Khashabi,
- Abstract要約: コピーライト・テイクダウン(copyright takedown)とは、著作権のあるものに近いコンテンツをモデルが生成するのを防ぐ手法である。
我々はBloomScrubを提案する。BloomScrubは極めてシンプルで、非常に効果的な推論時間アプローチであり、認証された著作権の削除を提供する。
本研究は,軽量な推論時間手法が著作権保護に驚くほど有効であることを示唆する。
- 参考スコア(独自算出の注目度): 46.571805194176825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exposure of large language models (LLMs) to copyrighted material during pre-training raises concerns about unintentional copyright infringement post deployment. This has driven the development of "copyright takedown" methods, post-training approaches aimed at preventing models from generating content substantially similar to copyrighted ones. While current mitigation approaches are somewhat effective for average-case risks, we demonstrate that they overlook worst-case copyright risks exhibits by the existence of long, verbatim quotes from copyrighted sources. We propose BloomScrub, a remarkably simple yet highly effective inference-time approach that provides certified copyright takedown. Our method repeatedly interleaves quote detection with rewriting techniques to transform potentially infringing segments. By leveraging efficient data sketches (Bloom filters), our approach enables scalable copyright screening even for large-scale real-world corpora. When quotes beyond a length threshold cannot be removed, the system can abstain from responding, offering certified risk reduction. Experimental results show that BloomScrub reduces infringement risk, preserves utility, and accommodates different levels of enforcement stringency with adaptive abstention. Our results suggest that lightweight, inference-time methods can be surprisingly effective for copyright prevention.
- Abstract(参考訳): 事前トレーニング中の著作権物質への大きな言語モデル(LLM)の露出は、意図しない著作権侵害の展開に対する懸念を提起する。
これにより、「コピーライト・テイクダウン(copyright takedown)」手法の開発が促進され、モデルが著作権のあるものと実質的に類似したコンテンツを生成するのを防ぐためのポストトレーニング手法が開発された。
現在の緩和アプローチは、平均的なケースリスクに対して幾分効果があるが、著作権ソースからの長い冗長な引用の存在により、最悪のケースで発生する著作権リスクを見落としていることを実証する。
我々はBloomScrubを提案する。BloomScrubは極めてシンプルで、非常に効果的な推論時間アプローチであり、認証された著作権の削除を提供する。
提案手法は繰り返し引用検出と書き直し手法をインターリーブして,潜在的に侵害されるセグメントを変換する。
効率的なデータスケッチ(ブルームフィルタ)を活用することにより,大規模な実世界のコーパスにおいてもスケーラブルな著作権スクリーニングが可能となる。
長さしきい値を超える引用を削除できない場合、システムは応答を控え、認証されたリスク低減を提供する。
実験結果から,BloomScrubは侵害リスクを低減し,効用を保ち,適応的棄権を伴う異なるレベルの強制的拘束を許容することが示された。
本研究は,軽量な推論時間手法が著作権保護に驚くほど有効であることを示唆する。
関連論文リスト
- SUV: Scalable Large Language Model Copyright Compliance with Regularized Selective Unlearning [22.76025238218253]
SUVは、大規模言語モデルが著作権のあるコンテンツを記憶することを防ぐために設計された選択的なアンラーニングフレームワークである。
私たちは、冗長な著作権のあるコンテンツを、プラウシブルで一貫性のある代替品に置き換えます。
我々は,500冊の有名な書籍の大規模データセットを用いて,我々のアプローチを検証する。
論文 参考訳(メタデータ) (2025-03-29T02:33:26Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
自動著作権侵害識別フレームワークであるCopyJudgeを提案する。
我々は,多LVLM議論を伴う抽象フィルタ比較テストフレームワークを用いて,侵害の可能性を評価する。
これらの判断に基づいて、一般のLVLMに基づく緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - Copyright-Protected Language Generation via Adaptive Model Fusion [15.48692649098646]
copyright-Protecting Model Fusion (CP-Fuse) は、推論中に著作権物質の不連続なセットで訓練されたモデルを組み合わせる新しいアプローチである。
CP-Fuseは,テキストの品質やコード生成を損なうことなく,保護された素材の再生を著しく低減することを示す。
論文 参考訳(メタデータ) (2024-12-09T16:13:17Z) - CopyrightShield: Spatial Similarity Guided Backdoor Defense against Copyright Infringement in Diffusion Models [61.06621533874629]
拡散モデルは 著作権侵害の標的だ
本稿では拡散モデルにおける複製の空間的類似性を詳細に解析する。
本稿では,著作権侵害攻撃を対象とする新たな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - SHIELD: Evaluation and Defense Strategies for Copyright Compliance in LLM Text Generation [24.644101178288476]
大規模言語モデル(LLM)は機械学習に変化をもたらしたが、重大な法的懸念を引き起こした。
LLMは著作権を侵害したり、著作権のないテキストを過剰に制限したりすることができる。
本稿では,著作権テキストの発生を防止するために,軽量でリアルタイムな防衛手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T18:00:03Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。