論文の概要: Evaluating Dataset Watermarking for Fine-tuning Traceability of Customized Diffusion Models: A Comprehensive Benchmark and Removal Approach
- arxiv url: http://arxiv.org/abs/2511.19316v1
- Date: Mon, 24 Nov 2025 17:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.331751
- Title: Evaluating Dataset Watermarking for Fine-tuning Traceability of Customized Diffusion Models: A Comprehensive Benchmark and Removal Approach
- Title(参考訳): カスタマイズ拡散モデルの微調整トレーサビリティのためのデータセット透かしの評価:総合的ベンチマークと除去手法
- Authors: Xincheng Wang, Hanchi Sun, Wenjun Sun, Kejun Xue, Wangqiu Zhou, Jianbo Zhang, Wei Sun, Dandan Zhu, Xiongkuo Min, Jun Jia, Zhijun Fang,
- Abstract要約: 本稿では、普遍性、透過性、ロバスト性を含む一般的な脅威モデルと包括的評価フレームワークを紹介する。
実験により、既存の手法は普遍性と透過性において良好に機能し、一般的な画像処理操作に対してある程度の堅牢性を示すことが示された。
さらに, 微調整に影響を及ぼすことなく, データセットの透かしを完全に除去する実用的な透かし除去手法を提案する。
- 参考スコア(独自算出の注目度): 40.345992095764736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent fine-tuning techniques for diffusion models enable them to reproduce specific image sets, such as particular faces or artistic styles, but also introduce copyright and security risks. Dataset watermarking has been proposed to ensure traceability by embedding imperceptible watermarks into training images, which remain detectable in outputs even after fine-tuning. However, current methods lack a unified evaluation framework. To address this, this paper establishes a general threat model and introduces a comprehensive evaluation framework encompassing Universality, Transmissibility, and Robustness. Experiments show that existing methods perform well in universality and transmissibility, and exhibit some robustness against common image processing operations, yet still fall short under real-world threat scenarios. To reveal these vulnerabilities, the paper further proposes a practical watermark removal method that fully eliminates dataset watermarks without affecting fine-tuning, highlighting a key challenge for future research.
- Abstract(参考訳): 拡散モデルの最近の微調整技術により、特定の顔や芸術的スタイルなどの特定のイメージセットを再現できるだけでなく、著作権やセキュリティリスクも導入できる。
微調整後の出力においても検出可能なトレーニング画像に、知覚不能な透かしを埋め込むことでトレーサビリティを確保するために、データセットの透かしが提案されている。
しかし、現在の手法には統一的な評価フレームワークがない。
そこで本研究では,汎用的な脅威モデルを構築し,普遍性,透過性,ロバスト性を含む包括的評価フレームワークを提案する。
実験により、既存の手法は普遍性と透過性において良好に機能し、一般的な画像処理操作に対して堅牢性を示すが、現実の脅威シナリオでは不十分であることが示された。
さらに,これらの脆弱性を明らかにするために,データセットの透かしを完全に除去する実用的な透かし除去手法を提案し,今後の研究において重要な課題を浮き彫りにする。
関連論文リスト
- Diffusion-Based Image Editing: An Unforeseen Adversary to Robust Invisible Watermarks [4.138397555991069]
強力な拡散ベースの画像生成と編集モデルは、埋め込みの透かしを不注意に取り除いたり歪んだりすることができる。
本稿では,拡散に基づく画像編集が,最先端のロバストな透かしを効果的に破壊できることを示す理論的,実証的な分析を行う。
画像から透かしを消去するために生成画像再生を用いた拡散誘導攻撃を提案する。
論文 参考訳(メタデータ) (2025-11-05T16:20:29Z) - Diffusion-Based Image Editing for Breaking Robust Watermarks [4.273350357872755]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
論文 参考訳(メタデータ) (2025-10-07T14:34:42Z) - Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では、拡散過程を利用して保護された入力に対して制御された画像を生成するRATTANを提案する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。