論文の概要: VideoShield: Regulating Diffusion-based Video Generation Models via Watermarking
- arxiv url: http://arxiv.org/abs/2501.14195v1
- Date: Fri, 24 Jan 2025 02:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:56:58.716248
- Title: VideoShield: Regulating Diffusion-based Video Generation Models via Watermarking
- Title(参考訳): VideoShield:ウォーターマーキングによる拡散型ビデオ生成モデルの制御
- Authors: Runyi Hu, Jie Zhang, Yiming Li, Jiwei Li, Qing Guo, Han Qiu, Tianwei Zhang,
- Abstract要約: VideoShieldはビデオ生成モデルのための新しい透かしフレームワークである。
ビデオ生成中に直接透かしを埋め込んで、追加のトレーニングを不要にする。
本手法では,透かしビットをテンプレートビットにマッピングし,透かしを発生させる。
- 参考スコア(独自算出の注目度): 27.345134138673945
- License:
- Abstract: Artificial Intelligence Generated Content (AIGC) has advanced significantly, particularly with the development of video generation models such as text-to-video (T2V) models and image-to-video (I2V) models. However, like other AIGC types, video generation requires robust content control. A common approach is to embed watermarks, but most research has focused on images, with limited attention given to videos. Traditional methods, which embed watermarks frame-by-frame in a post-processing manner, often degrade video quality. In this paper, we propose VideoShield, a novel watermarking framework specifically designed for popular diffusion-based video generation models. Unlike post-processing methods, VideoShield embeds watermarks directly during video generation, eliminating the need for additional training. To ensure video integrity, we introduce a tamper localization feature that can detect changes both temporally (across frames) and spatially (within individual frames). Our method maps watermark bits to template bits, which are then used to generate watermarked noise during the denoising process. Using DDIM Inversion, we can reverse the video to its original watermarked noise, enabling straightforward watermark extraction. Additionally, template bits allow precise detection for potential temporal and spatial modification. Extensive experiments across various video models (both T2V and I2V models) demonstrate that our method effectively extracts watermarks and detects tamper without compromising video quality. Furthermore, we show that this approach is applicable to image generation models, enabling tamper detection in generated images as well. Codes and models are available at \href{https://github.com/hurunyi/VideoShield}{https://github.com/hurunyi/VideoShield}.
- Abstract(参考訳): 人工知能生成コンテンツ(AIGC)は、特にテキスト・ツー・ビデオ(T2V)モデルや画像・ツー・ビデオ(I2V)モデルのようなビデオ生成モデルの開発で大きく進歩している。
しかし、他のAIGCタイプと同様に、ビデオ生成には堅牢なコンテンツ制御が必要である。
一般的なアプローチは透かしを埋め込むことだが、ほとんどの研究は画像に焦点を合わせており、ビデオに注意を向けている。
ウォーターマークをフレーム単位で後処理で埋め込む従来の手法は、ビデオの品質を劣化させることが多い。
本稿では,拡散型ビデオ生成モデルに特化して設計された新しい透かしフレームワークであるVideoShieldを提案する。
後処理の方法とは異なり、VideoShieldはビデオ生成中に直接透かしを埋め込む。
ビデオの整合性を確保するため,時間的(フレーム間)と空間的(フレーム間)の両方の変化を検出できるタンパーの局所化機能を導入する。
提案手法は,透かしビットをテンプレートビットにマッピングし,それを用いて復調処理中に透かしを発生させる。
DDIMのインバージョンを使えば、ビデオを元の透かしノイズに戻すことができ、簡単に透かしを抽出できる。
さらにテンプレートビットは、時間的および空間的な修正の正確な検出を可能にする。
様々なビデオモデル(T2VモデルとI2Vモデルの両方)にわたる大規模な実験により,映像品質を損なうことなく,ウォーターマークを効果的に抽出し,タンパーを検出することが実証された。
さらに,本手法は画像生成モデルに適用可能であることを示す。
コードとモデルは \href{https://github.com/hurunyi/VideoShield}{https://github.com/hurunyi/VideoShield} で公開されている。
関連論文リスト
- Turns Out I'm Not Real: Towards Robust Detection of AI-Generated Videos [16.34393937800271]
高品質なビデオを作成するための生成モデルは、デジタル整合性とプライバシーの脆弱性に関する懸念を提起している。
ディープフェイクスのビデオと戦うための最近の研究は、ガン生成サンプルを正確に識別する検出器を開発した。
本稿では,複数の最先端(SOTA)生成モデルから合成された映像を検出するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T21:52:49Z) - DiffuseTrace: A Transparent and Flexible Watermarking Scheme for Latent Diffusion Model [15.982765272033058]
潜在拡散モデル(LDM)は幅広い応用を可能にするが、違法利用に関する倫理的懸念を提起する。
DiffuseTraceと呼ばれる新しいテクニックは、すべての生成された画像に見えない透かしを埋め込んで、将来的な検出を意味づける。
論文 参考訳(メタデータ) (2024-05-04T15:32:57Z) - StreamingT2V: Consistent, Dynamic, and Extendable Long Video Generation from Text [58.49820807662246]
本稿では,80,240,600,1200以上のフレームをスムーズな遷移で自動回帰的に生成するStreamingT2Vを紹介する。
私たちのコードは、https://github.com/Picsart-AI-Research/StreamingT2V.comで利用可能です。
論文 参考訳(メタデータ) (2024-03-21T18:27:29Z) - VGMShield: Mitigating Misuse of Video Generative Models [7.963591895964269]
VGMShieldは、フェイクビデオ生成のライフサイクルを通じて、単純だが先駆的な3つの緩和セットである。
まず、生成されたビデオにユニークさがあるかどうか、そしてそれらを実際のビデオと区別できるかどうかを理解する。
そこで本研究では,偽動画を生成モデルにマッピングするテクトニクス問題について検討する。
論文 参考訳(メタデータ) (2024-02-20T16:39:23Z) - RAVE: Randomized Noise Shuffling for Fast and Consistent Video Editing
with Diffusion Models [19.792535444735957]
RAVEは、事前訓練されたテキスト-画像拡散モデルを活用するゼロショットビデオ編集法である。
オリジナルモーションとセマンティックな構造を保ちながら高品質なビデオを生成する。
RAVEは、局所的な属性修正から形状変換まで、幅広い編集が可能である。
論文 参考訳(メタデータ) (2023-12-07T18:43:45Z) - DreamVideo: High-Fidelity Image-to-Video Generation with Image Retention and Text Guidance [69.0740091741732]
本研究では,DreamVideo という名前の事前学習ビデオ拡散モデルに基づくフレーム保持分岐を考案し,高忠実度映像生成手法を提案する。
我々のモデルには強力な画像保持能力があり、我々の知る限り、他の画像-映像モデルと比較して、UCF101で最高の結果をもたらす。
論文 参考訳(メタデータ) (2023-12-05T03:16:31Z) - WAIT: Feature Warping for Animation to Illustration video Translation
using GANs [12.681919619814419]
ビデオのスタイリングにおいて,未順序画像の集合を用いる場合の新たな問題を提案する。
映像から映像への翻訳のほとんどは、画像から画像への翻訳モデルに基づいて構築されている。
本稿では,従来の手法の限界を克服する特徴変形層を有する新しいジェネレータネットワークを提案する。
論文 参考訳(メタデータ) (2023-10-07T19:45:24Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video
Generators [70.17041424896507]
最近のテキスト・ビデオ生成アプローチは、計算的に重いトレーニングに依存し、大規模なビデオデータセットを必要とする。
既存のテキスト・画像合成手法を用いたゼロショットテキスト・ビデオ生成の課題を提案する。
本手法は,ビデオデータ追加の訓練を受けていないにも関わらず,近年の手法よりも多種多種多種多種多種多種多種多種多種多様である。
論文 参考訳(メタデータ) (2023-03-23T17:01:59Z) - Deformable Sprites for Unsupervised Video Decomposition [66.73136214980309]
それぞれのシーン要素を3つのコンポーネントからなるemphDeformable Spriteとして表現します。
その結果生じる分解により、一貫したビデオ編集のようなアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-04-14T17:58:02Z) - A Good Image Generator Is What You Need for High-Resolution Video
Synthesis [73.82857768949651]
現代画像生成装置を用いて高解像度映像のレンダリングを行うフレームワークを提案する。
我々は,映像合成問題を,予め訓練された固定された画像生成装置の潜時空間における軌跡の発見とみなす。
本稿では,コンテンツや動きが絡み合っている所望の軌跡を検出するモーションジェネレータを提案する。
論文 参考訳(メタデータ) (2021-04-30T15:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。