論文の概要: Copyright Infringement Risk Reduction via Chain-of-Thought and Task Instruction Prompting
- arxiv url: http://arxiv.org/abs/2512.15442v1
- Date: Wed, 17 Dec 2025 13:39:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.009792
- Title: Copyright Infringement Risk Reduction via Chain-of-Thought and Task Instruction Prompting
- Title(参考訳): 著作権侵害リスク低減への取組みと課題指導の推進
- Authors: Neeraj Sarna, Yuanyuan Li, Michael von Gablenz,
- Abstract要約: トレーニングデータセットの再生は 著作権侵害のリスクをもたらす
本稿では,著作権のあるコンテンツ生成を減らすために,チェーン・オブ・ソートとタスク・インストラクションを併用した定式化を提案する。
生成した画像の著作権画像との類似性およびユーザ入力との関連性について検討する。
- 参考スコア(独自算出の注目度): 7.04790342345686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large scale text-to-image generation models can memorize and reproduce their training dataset. Since the training dataset often contains copyrighted material, reproduction of training dataset poses a copyright infringement risk, which could result in legal liabilities and financial losses for both the AI user and the developer. The current works explores the potential of chain-of-thought and task instruction prompting in reducing copyrighted content generation. To this end, we present a formulation that combines these two techniques with two other copyright mitigation strategies: a) negative prompting, and b) prompt re-writing. We study the generated images in terms their similarity to a copyrighted image and their relevance of the user input. We present numerical experiments on a variety of models and provide insights on the effectiveness of the aforementioned techniques for varying model complexity.
- Abstract(参考訳): 大規模なテキスト画像生成モデルは、トレーニングデータセットを記憶し、再生することができる。
トレーニングデータセットには、しばしば著作権のある資料が含まれているため、トレーニングデータセットの再生は著作権侵害のリスクを生じさせ、AIユーザと開発者の両方にとって法的責任と金銭的損失をもたらす可能性がある。
現在の研究は、著作権のあるコンテンツ生成を減らすためのチェーン・オブ・シンキングとタスク・インストラクションの可能性を探っている。
この目的のために、これらの2つの技法と他の2つの著作権緩和戦略を組み合わせた定式化を提案する。
a)負のプロンプト、そして
b) 即時書き直し
生成した画像の著作権画像との類似性およびユーザ入力との関連性について検討する。
本稿では, 様々なモデルに関する数値実験を行い, 上記の手法の有効性について考察する。
関連論文リスト
- RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - CopyScope: Model-level Copyright Infringement Quantification in the
Diffusion Workflow [6.6282087165087304]
著作権侵害の定量化は、AIが生成した画像著作権トレーサビリティへの第一かつ挑戦的なステップである。
モデルレベルからAI生成画像の侵害を定量化する新しいフレームワークであるCopyScopeを提案する。
論文 参考訳(メタデータ) (2023-10-13T13:08:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。