論文の概要: LVMark: Robust Watermark for Latent Video Diffusion Models
- arxiv url: http://arxiv.org/abs/2412.09122v3
- Date: Fri, 28 Mar 2025 05:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 18:43:42.707072
- Title: LVMark: Robust Watermark for Latent Video Diffusion Models
- Title(参考訳): LVMark: 遅延拡散モデルのためのロバストな透かし
- Authors: MinHyuk Jang, Youngdong Jang, JaeHyeok Lee, Feng Yang, Gyeongrok Oh, Jongheon Jeong, Sangpil Kim,
- Abstract要約: ビデオ拡散モデルのための新しい透かし手法であるLVMarkを紹介する。
本稿では,隣接するフレーム間の一貫性を学習し,生成ビデオに適した新しい透かしデコーダを提案する。
拡散モデルの透かしデコーダと潜時デコーダの両方を最適化し、視覚的品質とビット精度のトレードオフを効果的にバランスさせる。
- 参考スコア(独自算出の注目度): 13.85241328100336
- License:
- Abstract: Rapid advancements in video diffusion models have enabled the creation of realistic videos, raising concerns about unauthorized use and driving the demand for techniques to protect model ownership. Existing watermarking methods, while effective for image diffusion models, do not account for temporal consistency, leading to degraded video quality and reduced robustness against video distortions. To address this issue, we introduce LVMark, a novel watermarking method for video diffusion models. We propose a new watermark decoder tailored for generated videos by learning the consistency between adjacent frames. It ensures accurate message decoding, even under malicious attacks, by combining the low-frequency components of the 3D wavelet domain with the RGB features of the video. Additionally, our approach minimizes video quality degradation by embedding watermark messages in layers with minimal impact on visual appearance using an importance-based weight modulation strategy. We optimize both the watermark decoder and the latent decoder of diffusion model, effectively balancing the trade-off between visual quality and bit accuracy. Our experiments show that our method embeds invisible watermarks into video diffusion models, ensuring robust decoding accuracy with 512-bit capacity, even under video distortions.
- Abstract(参考訳): ビデオ拡散モデルの急速な進歩は、現実的なビデオの作成を可能にし、不正使用に対する懸念を高め、モデルの所有権を保護する技術への需要を加速させた。
既存の透かし法は、画像拡散モデルに有効であるが、時間的一貫性を考慮せず、画質が劣化し、ビデオ歪みに対するロバスト性が低下する。
この問題に対処するために,ビデオ拡散モデルのための新しい透かし手法であるLVMarkを紹介する。
本稿では,隣接するフレーム間の一貫性を学習し,生成ビデオに適した新しい透かしデコーダを提案する。
3Dウェーブレットドメインの低周波成分とビデオのRGB機能を組み合わせることで、悪意のある攻撃でも正確なメッセージ復号を保証します。
さらに,重要度に基づく重み変調戦略を用いて,映像の外観への影響を最小限に抑えつつ,透かしメッセージの層への埋め込みによる画質劣化を最小化する手法を提案する。
拡散モデルの透かしデコーダと潜時デコーダの両方を最適化し、視覚的品質とビット精度のトレードオフを効果的にバランスさせる。
実験により,ビデオ拡散モデルに見えない透かしを埋め込んで,ビデオ歪み下でも512ビットのキャパシティで堅牢な復号精度を確保することができた。
関連論文リスト
- VideoShield: Regulating Diffusion-based Video Generation Models via Watermarking [27.345134138673945]
VideoShieldはビデオ生成モデルのための新しい透かしフレームワークである。
ビデオ生成中に直接透かしを埋め込んで、追加のトレーニングを不要にする。
本手法では,透かしビットをテンプレートビットにマッピングし,透かしを発生させる。
論文 参考訳(メタデータ) (2025-01-24T02:57:09Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - Video Seal: Open and Efficient Video Watermarking [47.40833588157406]
ビデオ透かしは、認識不能な信号をビデオに埋め込むことによって、課題に対処する。
Video Sealは、ニューラルビデオ透かしのための包括的なフレームワークであり、競合するオープンソースモデルである。
提案手法の有効性を, 速度, 不受容性, 頑健性の観点から実験的に検証した。
論文 参考訳(メタデータ) (2024-12-12T17:41:49Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計された新しいフレームワークである。
モデルは、学習したセマンティック概念から透かし情報を切り離し、埋め込み透かしを保持することができる。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - DiffuseTrace: A Transparent and Flexible Watermarking Scheme for Latent Diffusion Model [15.982765272033058]
潜在拡散モデル(LDM)は幅広い応用を可能にするが、違法利用に関する倫理的懸念を提起する。
DiffuseTraceと呼ばれる新しいテクニックは、すべての生成された画像に見えない透かしを埋め込んで、将来的な検出を意味づける。
論文 参考訳(メタデータ) (2024-05-04T15:32:57Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。