論文の概要: Watermarking Visual Concepts for Diffusion Models
- arxiv url: http://arxiv.org/abs/2411.11688v3
- Date: Sat, 23 Aug 2025 12:04:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 14:31:50.401062
- Title: Watermarking Visual Concepts for Diffusion Models
- Title(参考訳): 拡散モデルのための透かし視覚概念
- Authors: Liangqi Lei, Keke Gai, Jing Yu, Liehuang Zhu, Qi Wu,
- Abstract要約: パーソナライズ技術は特定の概念で画像を生成する。
悪意のあるユーザは、ターゲットのコンセプトに関連する不正なコンテンツや偽情報を生成できる。
モデル透かしは、悪意のある生成された画像を追跡し、彼らの著作権を保護する効果的なソリューションである。
- 参考スコア(独自算出の注目度): 43.35783380047233
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The personalization techniques of diffusion models succeed in generating images with specific concepts. This ability also poses great threats to copyright protection and network security since malicious users can generate unauthorized content and disinformation relevant to a target concept. Model watermarking is an effective solution to trace the malicious generated images and safeguard their copyright. However, existing model watermarking techniques merely achieve image-level tracing without concept traceability. When tracing infringing or harmful concepts, current approaches execute image concept detection and model tracing sequentially, where performance is critically constrained by concept detection accuracy. In this paper, we propose a lightweight concept watermarking framework that efficiently binds target concepts to model watermarks, supporting simultaneous concept identification and model tracing via single-stage watermark verification. To further enhance the robustness of concept watermarking, we propose an adversarial perturbation injection method collaboratively embedded with watermarks during image generation, avoiding watermark removal by model purification attacks. Experimental results demonstrate that ConceptWM significantly outperforms state-of-the-art watermarking methods, improving detection accuracy by 6.3%-19.3% across diverse datasets including COCO and StableDiffusionDB. Additionally, ConceptWM possesses a critical capability absent in other watermarking methods: it sustains a 21.7% FID/CLIP degradation under adversarial fine-tuning of Stable Diffusion models on WikiArt and CelebA-HQ, demonstrating its capability to mitigate model misuse.
- Abstract(参考訳): 拡散モデルのパーソナライズ技術は、特定の概念で画像を生成することに成功している。
この機能は、悪意のあるユーザーが、ターゲットのコンセプトに関連する不正なコンテンツや偽情報を生成できるため、著作権保護とネットワークセキュリティに大きな脅威をもたらす。
モデル透かしは、悪意のある生成された画像を追跡し、彼らの著作権を保護する効果的なソリューションである。
しかし、既存のモデル透かし技術は、概念的トレーサビリティなしで画像レベルのトレーサビリティを実現するだけである。
侵害や有害な概念をトレースする場合、現在のアプローチでは、画像概念検出とモデルトレースを逐次実行している。
本稿では,目標概念をモデル透かしに効率的に結合する軽量なコンセプト透かしフレームワークを提案する。
本研究では, 画像生成時に透かしと連動して埋め込まれた対向摂動注入法を提案し, モデル浄化攻撃による透かし除去を回避した。
実験結果によると、ConceptWMは最先端の透かし手法を著しく上回り、COCOやStableDiffusionDBを含むさまざまなデータセットで検出精度を6.3%19.3%向上している。
WikiArtとCelebA-HQの安定拡散モデルの逆調整の下で21.7%のFID/CLIP劣化を保ち、モデル誤用を軽減している。
関連論文リスト
- Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Forging and Removing Latent-Noise Diffusion Watermarks Using a Single Image [24.513881574366046]
従来の透かし方式は、初期ノイズに秘密鍵を埋め込む。
拡散モデルウェイトへのアクセスを前提としないブラックボックス逆襲攻撃を提案する。
また,この領域を抜け出すために摂動を学習することで,透かし除去にも同様のアプローチが適用可能であることを示す。
論文 参考訳(メタデータ) (2025-04-27T18:29:26Z) - Spread them Apart: Towards Robust Watermarking of Generated Content [4.332441337407564]
本稿では,生成したコンテンツに透かしを埋め込む手法を提案する。
埋め込みされた透かしは、境界等級の加法摂動に対して頑健であることを保証する。
論文 参考訳(メタデータ) (2025-02-11T09:23:38Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では,テキスト・ツー・イメージ・モデルに適用された様々な透かしに基づく保護手法のロバスト性について検討する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking [67.60174799881597]
本稿では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。
実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。
論文 参考訳(メタデータ) (2023-09-12T03:33:13Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。