論文の概要: VideoShield: Regulating Diffusion-based Video Generation Models via Watermarking
- arxiv url: http://arxiv.org/abs/2501.14195v2
- Date: Tue, 25 Feb 2025 11:54:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:27.624787
- Title: VideoShield: Regulating Diffusion-based Video Generation Models via Watermarking
- Title(参考訳): VideoShield:ウォーターマーキングによる拡散型ビデオ生成モデルの制御
- Authors: Runyi Hu, Jie Zhang, Yiming Li, Jiwei Li, Qing Guo, Han Qiu, Tianwei Zhang,
- Abstract要約: VideoShieldはビデオ生成モデルのための新しい透かしフレームワークである。
後処理の方法とは異なり、VideoShieldはビデオ生成中に直接透かしを埋め込む。
ビデオの整合性を確保するため,タンパーのローカライゼーション機能を導入する。
- 参考スコア(独自算出の注目度): 27.345134138673945
- License:
- Abstract: Artificial Intelligence Generated Content (AIGC) has advanced significantly, particularly with the development of video generation models such as text-to-video (T2V) models and image-to-video (I2V) models. However, like other AIGC types, video generation requires robust content control. A common approach is to embed watermarks, but most research has focused on images, with limited attention given to videos. Traditional methods, which embed watermarks frame-by-frame in a post-processing manner, often degrade video quality. In this paper, we propose VideoShield, a novel watermarking framework specifically designed for popular diffusion-based video generation models. Unlike post-processing methods, VideoShield embeds watermarks directly during video generation, eliminating the need for additional training. To ensure video integrity, we introduce a tamper localization feature that can detect changes both temporally (across frames) and spatially (within individual frames). Our method maps watermark bits to template bits, which are then used to generate watermarked noise during the denoising process. Using DDIM Inversion, we can reverse the video to its original watermarked noise, enabling straightforward watermark extraction. Additionally, template bits allow precise detection for potential temporal and spatial modification. Extensive experiments across various video models (both T2V and I2V models) demonstrate that our method effectively extracts watermarks and detects tamper without compromising video quality. Furthermore, we show that this approach is applicable to image generation models, enabling tamper detection in generated images as well. Codes and models are available at https://github.com/hurunyi/VideoShield.
- Abstract(参考訳): 人工知能生成コンテンツ(AIGC)は、特にテキスト・ツー・ビデオ(T2V)モデルや画像・ツー・ビデオ(I2V)モデルのようなビデオ生成モデルの開発で大きく進歩している。
しかし、他のAIGCタイプと同様に、ビデオ生成には堅牢なコンテンツ制御が必要である。
一般的なアプローチは透かしを埋め込むことだが、ほとんどの研究は画像に焦点を合わせており、ビデオに注意を向けている。
ウォーターマークをフレーム単位で後処理で埋め込む従来の手法は、ビデオの品質を劣化させることが多い。
本稿では,拡散型ビデオ生成モデルに特化して設計された新しい透かしフレームワークであるVideoShieldを提案する。
後処理の方法とは異なり、VideoShieldはビデオ生成中に直接透かしを埋め込む。
ビデオの整合性を確保するため,時間的(フレーム間)と空間的(フレーム間)の両方の変化を検出できるタンパーの局所化機能を導入する。
提案手法は,透かしビットをテンプレートビットにマッピングし,それを用いて復調処理中に透かしを発生させる。
DDIMのインバージョンを使えば、ビデオを元の透かしノイズに戻すことができ、簡単に透かしを抽出できる。
さらにテンプレートビットは、時間的および空間的な修正の正確な検出を可能にする。
様々なビデオモデル(T2VモデルとI2Vモデルの両方)にわたる大規模な実験により,映像品質を損なうことなく,ウォーターマークを効果的に抽出し,タンパーを検出することが実証された。
さらに,本手法は画像生成モデルに適用可能であることを示す。
コードとモデルはhttps://github.com/hurunyi/VideoShield.comで公開されている。
関連論文リスト
- RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - Video Seal: Open and Efficient Video Watermarking [47.40833588157406]
ビデオ透かしは、認識不能な信号をビデオに埋め込むことによって、課題に対処する。
Video Sealは、ニューラルビデオ透かしのための包括的なフレームワークであり、競合するオープンソースモデルである。
提案手法の有効性を, 速度, 不受容性, 頑健性の観点から実験的に検証した。
論文 参考訳(メタデータ) (2024-12-12T17:41:49Z) - LVMark: Robust Watermark for latent video diffusion models [5.310978296852323]
本稿では,ビデオ拡散モデルに透かしを埋め込むLVMarkという新しい透かし手法を提案する。
LVMarkの重要なコンポーネントは、ビデオ拡散モデルにウォーターマークメッセージを効率的に埋め込む選択的な重み変調戦略である。
本手法は,ビデオ生成モデルにおけるオーナシップ保護の有効性を高めるための貴重なツールとして,ビデオ生成モデル透かしの可能性を強調した最初の試みである。
論文 参考訳(メタデータ) (2024-12-12T09:57:20Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計された新しいフレームワークである。
モデルは、学習したセマンティック概念から透かし情報を切り離し、埋め込み透かしを保持することができる。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - Turns Out I'm Not Real: Towards Robust Detection of AI-Generated Videos [16.34393937800271]
高品質なビデオを作成するための生成モデルは、デジタル整合性とプライバシーの脆弱性に関する懸念を提起している。
ディープフェイクスのビデオと戦うための最近の研究は、ガン生成サンプルを正確に識別する検出器を開発した。
本稿では,複数の最先端(SOTA)生成モデルから合成された映像を検出するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T21:52:49Z) - StreamingT2V: Consistent, Dynamic, and Extendable Long Video Generation from Text [58.49820807662246]
本稿では,80,240,600,1200以上のフレームをスムーズな遷移で自動回帰的に生成するStreamingT2Vを紹介する。
私たちのコードは、https://github.com/Picsart-AI-Research/StreamingT2V.comで利用可能です。
論文 参考訳(メタデータ) (2024-03-21T18:27:29Z) - VGMShield: Mitigating Misuse of Video Generative Models [7.963591895964269]
VGMShieldは、フェイクビデオ生成のライフサイクルを通じて、単純だが先駆的な3つの緩和セットである。
まず、生成されたビデオにユニークさがあるかどうか、そしてそれらを実際のビデオと区別できるかどうかを理解する。
そこで本研究では,偽動画を生成モデルにマッピングするテクトニクス問題について検討する。
論文 参考訳(メタデータ) (2024-02-20T16:39:23Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video
Generators [70.17041424896507]
最近のテキスト・ビデオ生成アプローチは、計算的に重いトレーニングに依存し、大規模なビデオデータセットを必要とする。
既存のテキスト・画像合成手法を用いたゼロショットテキスト・ビデオ生成の課題を提案する。
本手法は,ビデオデータ追加の訓練を受けていないにも関わらず,近年の手法よりも多種多種多種多種多種多種多種多種多種多様である。
論文 参考訳(メタデータ) (2023-03-23T17:01:59Z) - Deformable Sprites for Unsupervised Video Decomposition [66.73136214980309]
それぞれのシーン要素を3つのコンポーネントからなるemphDeformable Spriteとして表現します。
その結果生じる分解により、一貫したビデオ編集のようなアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-04-14T17:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。