論文の概要: Attention to Neural Plagiarism: Diffusion Models Can Plagiarize Your Copyrighted Images!
- arxiv url: http://arxiv.org/abs/2603.00150v1
- Date: Wed, 25 Feb 2026 05:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.060248
- Title: Attention to Neural Plagiarism: Diffusion Models Can Plagiarize Your Copyrighted Images!
- Title(参考訳): ニューラルプラジャリズムへの注意:拡散モデルであなたの著作権された画像をプラジャイズできる!
- Authors: Zihang Zou, Boqing Gong, Liqiang Wang,
- Abstract要約: 我々は、新しいニューラルモデルによって引き起こされる重要な脅威、すなわちデータプラジャリズムを強調します。
最新のニューラルモデルは、ウォーターマーキング技術によって保護された場合でも、著作権のある画像を複製する方法を実証する。
本稿では,著作権データの複製を偽造するか,著作権あいまいさを導入するニューラルプラジャリズムに対する一般的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 21.559370416327084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we highlight a critical threat posed by emerging neural models: data plagiarism. We demonstrate how modern neural models (e.g., diffusion models) can replicate copyrighted images, even when protected by advanced watermarking techniques. To expose vulnerabilities in copyright protection and facilitate future research, we propose a general approach to neural plagiarism that can either forge replicas of copyrighted data or introduce copyright ambiguity. Our method, based on "anchors and shims", employs inverse latents as anchors and finds shim perturbations that gradually deviate the anchor latents, thereby evading watermark or copyright detection. By applying perturbations to the cross-attention mechanism at different timesteps, our approach induces varying degrees of semantic modification in copyrighted images, enabling it to bypass protections ranging from visible trademarks and signatures to invisible watermarks. Notably, our method is a purely gradient-based search that requires no additional training or fine-tuning. Experiments on MS-COCO and real-world copyrighted images show that diffusion models can replicate copyrighted images, underscoring the urgent need for countermeasures against neural plagiarism.
- Abstract(参考訳): 本稿では,新しいニューラルモデルによって引き起こされる致命的な脅威であるデータプラジャリズムを強調する。
最新のニューラルモデル(例えば拡散モデル)が、高度な透かし技術によって保護された場合でも、著作権のある画像を複製する方法を実証する。
著作権保護の脆弱性を暴露し,今後の研究を促進するために,著作権データの複製を偽造したり,著作権の曖昧さを導入するニューラルプラジャリズムへの一般的なアプローチを提案する。
提案手法は,「アンカーとシム」に基づいて,逆潜水器をアンカーとして使用し,アンカーの潜水器を徐々に逸脱させるシム摂動を発見し,透かしや著作権検出を回避する。
提案手法は,異なるタイミングで相互注意機構に摂動を適用することにより,著作権画像のセマンティックな変更の程度を誘導し,目に見える商標やシグネチャから目に見えない透かしまで,さまざまな保護を回避できる。
特に,本手法は学習や微調整を必要としない純粋に勾配に基づく探索法である。
MS-COCOと現実世界の著作権画像の実験は、拡散モデルが著作権のある画像を複製できることを示している。
関連論文リスト
- Diffusion-Based Image Editing for Breaking Robust Watermarks [4.273350357872755]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
論文 参考訳(メタデータ) (2025-10-07T14:34:42Z) - Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
我々は,新しい自動侵害識別フレームワークであるCopyJudgeを提案する。
我々は, 抽象フィルタ比較テストフレームワークを用いて, 侵害の可能性を評価する。
インフレクションを自動最適化する汎用LVLM方式の緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - RLCP: A Reinforcement Learning-based Copyright Protection Method for Text-to-Image Diffusion Model [42.77851688874563]
テキスト・画像拡散モデルのための強化学習に基づく著作権保護(RLCP)手法を提案する。
提案手法は,モデル生成データセットの品質を維持しつつ,著作権侵害コンテンツの生成を最小限に抑える。
論文 参考訳(メタデータ) (2024-08-29T15:39:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - On Copyright Risks of Text-to-Image Diffusion Models [31.982360758956034]
拡散モデルは、テキストプロンプト(T2I)生成と呼ばれるタスクである、テキストプロンプトからのイメージの作成において優れている。
近年,直接的かつ著作権のあるプロンプトを用いた拡散モデルの著作権行動に関する研究が行われている。
私たちの研究は、間接的なプロンプトでさえ著作権問題を引き起こすような、より微妙な形態の侵害を調べることで、これを拡張しています。
論文 参考訳(メタデータ) (2023-09-15T01:34:02Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - DiffusionShield: A Watermark for Copyright Protection against Generative Diffusion Models [41.81697529657049]
生成拡散モデル(GDM)に適した新しい透かし方式DiffusionShieldを導入する。
DiffusionShieldは、所有権情報を認識不能な透かしにエンコードし、画像に注入することで、GDMによる著作権侵害から画像を保護する。
透かしの均一性と共同最適化法により、DiffusionShieldは元の画像の歪みを低くする。
論文 参考訳(メタデータ) (2023-05-25T11:59:28Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。