論文の概要: An Efficient Watermarking Method for Latent Diffusion Models via Low-Rank Adaptation
- arxiv url: http://arxiv.org/abs/2410.20202v1
- Date: Sat, 26 Oct 2024 15:23:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:22:45.004989
- Title: An Efficient Watermarking Method for Latent Diffusion Models via Low-Rank Adaptation
- Title(参考訳): 低ランク適応による潜時拡散モデルの効率的な透かし法
- Authors: Dongdong Lin, Yue Li, Benedetta Tondi, Bin Li, Mauro Barni,
- Abstract要約: 低ランク適応(LoRA)に基づく潜在拡散モデル(LDM)の効率的な透かし手法を提案する。
提案手法は,高速な透かし埋め込みを保証し,透かしの非常に低ビット誤り率,生成画像の品質,検証のためのゼロ偽陰率(FNR)を維持できることを示す。
- 参考スコア(独自算出の注目度): 21.058231817498115
- License:
- Abstract: The rapid proliferation of deep neural networks (DNNs) is driving a surge in model watermarking technologies, as the trained deep models themselves serve as intellectual properties. The core of existing model watermarking techniques involves modifying or tuning the models' weights. However, with the emergence of increasingly complex models, ensuring the efficiency of watermarking process is essential to manage the growing computational demands. Prioritizing efficiency not only optimizes resource utilization, making the watermarking process more applicable, but also minimizes potential impacts on model performance. In this letter, we propose an efficient watermarking method for latent diffusion models (LDMs) which is based on Low-Rank Adaptation (LoRA). We specifically choose to add trainable low-rank matrices to the existing weight matrices of the models to embed watermark, while keeping the original weights frozen. Moreover, we also propose a dynamic loss weight tuning algorithm to balance the generative task with the watermark embedding task, ensuring that the model can be watermarked with a limited impact on the quality of the generated images. Experimental results show that the proposed method ensures fast watermark embedding and maintains a very low bit error rate of the watermark, a high-quality of the generated image, and a zero false negative rate (FNR) for verification.
- Abstract(参考訳): 深層ニューラルネットワーク(DNN)の急速な普及は、訓練された深層モデル自体が知的特性として機能するため、モデル透かし技術の急増を加速させている。
既存のモデルの透かし技術の中核は、モデルの重みを変更したり調整したりすることである。
しかし、ますます複雑なモデルが出現するにつれて、ウォーターマーキングプロセスの効率性は、増大する計算要求を管理するために不可欠である。
効率の優先順位付けは、資源利用を最適化するだけでなく、透かしプロセスをより適用可能にするだけでなく、モデルの性能に対する潜在的な影響を最小限にする。
本稿では,Low-Rank Adaptation (LoRA) に基づく潜在拡散モデル(LDM)の効率的な透かし手法を提案する。
特に、トレーニング可能な低ランク行列を既存のモデルの重量行列に追加し、ウォーターマークを埋め込むとともに、元の重量を凍結させます。
また、生成タスクと透かし埋め込みタスクとのバランスを保ち、生成した画像の品質に限定した影響でモデルに透かしを付与する動的損失重み調整アルゴリズムを提案する。
実験の結果,提案手法は高速な透かし埋め込みを保証し,透かしの非常に低ビット誤り率,生成画像の品質,検証のためのゼロ偽陰率(FNR)を維持できることがわかった。
関連論文リスト
- Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Intellectual Property Protection of Diffusion Models via the Watermark
Diffusion Process [22.38407658885059]
本稿では,タスク生成時に透かしを印字せずに拡散モデルに新しい透かし手法であるWDMを紹介する。
タスク生成のための標準的な拡散プロセスと並行して、透かしを埋め込むための透かし拡散プロセス(WDP)を同時に学習するモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-06T06:31:07Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Spread-Transform Dither Modulation Watermarking of Deep Neural Network [33.63490683496175]
本稿では,サイド情報パラダイムによる透かしを利用した新しいDNN透かしアルゴリズムを提案し,透かしの難易度を低減し,ペイロードを増加させる。
特に,ST-DM(Spread Transform Dither Modulation)による電子透かし方式は,従来のSSに基づく最近提案されたアルゴリズムの性能向上に寄与する。
論文 参考訳(メタデータ) (2020-12-28T10:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。