論文の概要: SKeDA: A Generative Watermarking Framework for Text-to-video Diffusion Models
- arxiv url: http://arxiv.org/abs/2603.00194v1
- Date: Fri, 27 Feb 2026 06:18:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.098083
- Title: SKeDA: A Generative Watermarking Framework for Text-to-video Diffusion Models
- Title(参考訳): SKeDA: テキスト-ビデオ拡散モデルのための生成型透かしフレームワーク
- Authors: Yang Yang, Xinze Zou, Zehua Ma, Han Fang, Weiming Zhang,
- Abstract要約: テキスト・ビデオ拡散モデルに適した生成型透かしフレームワークを提案する。
SKeDAは2つのコンポーネントから構成される: 1) シャッフルキーベースの分散保存サンプリング(SKe)は、透かし暗号化のために単一のベース擬似ランダムバイナリシーケンスを使用し、置換によってフレームレベルの暗号化シーケンスを導出する。
大規模な実験により、SKeDAは高い映像生成品質と透かしの堅牢性を保っていることが示された。
- 参考スコア(独自算出の注目度): 40.540302276054376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of text-to-video generation models has raised growing concerns over content authenticity, copyright protection, and malicious misuse. Watermarking serves as an effective mechanism for regulating such AI-generated content, where high fidelity and strong robustness are particularly critical. Recent generative image watermarking methods provide a promising foundation by leveraging watermark information and pseudo-random keys to control the initial sampling noise, enabling lossless embedding. However, directly extending these techniques to videos introduces two key limitations: Existing designs implicitly rely on strict alignment between video frames and frame-dependent pseudo-random binary sequences used for watermark encryption. Once this alignment is disrupted, subsequent watermark extraction becomes unreliable; and Video-specific distortions, such as inter-frame compression, significantly degrade watermark reliability. To address these issues, we propose SKeDA, a generative watermarking framework tailored for text-to-video diffusion models. SKeDA consists of two components: (1) Shuffle-Key-based Distribution-preserving Sampling (SKe) employs a single base pseudo-random binary sequence for watermark encryption and derives frame-level encryption sequences through permutation. This design transforms watermark extraction from synchronization-sensitive sequence decoding into permutation-tolerant set-level aggregation, substantially improving robustness against frame reordering and loss; and (2) Differential Attention (DA), which computes inter-frame differences and dynamically adjusts attention weights during extraction, enhancing robustness against temporal distortions. Extensive experiments demonstrate that SKeDA preserves high video generation quality and watermark robustness.
- Abstract(参考訳): テキスト・ビデオ生成モデルの台頭は、コンテンツの信頼性、著作権保護、悪意のある誤用に対する懸念が高まっている。
ウォーターマーキングは、高い忠実性と強い堅牢性が特に重要である、このようなAI生成コンテンツを規制するための効果的なメカニズムとして機能する。
最近の画像透かし法は、透かし情報と擬似ランダムキーを利用して初期サンプリングノイズを制御し、ロスレス埋め込みを可能にすることにより、有望な基礎を提供する。
既存のデザインは、ビデオフレームとウォーターマーク暗号化に使用されるフレーム依存の擬似ランダムバイナリシーケンス間の厳密なアライメントに暗黙的に依存します。
このアライメントが破壊されると、その後の透かし抽出は信頼性が低下し、フレーム間圧縮のようなビデオ特有の歪みは、透かしの信頼性を著しく低下させる。
これらの問題に対処するために,テキスト・ビデオ拡散モデルに適した生成型透かしフレームワークであるSKeDAを提案する。
SKeDAは2つのコンポーネントから構成される: 1) シャッフルキーベースの分散保存サンプリング(SKe)は、透かし暗号化のために単一のベース擬似ランダムバイナリシーケンスを使用し、置換によってフレームレベルの暗号化シーケンスを導出する。
この設計は、同期感度シーケンスデコードから透かし抽出した透かしを、置換耐性のセットレベルアグリゲーションに変換し、フレームの並べ替えや損失に対する堅牢性を大幅に向上させ、(2)フレーム間の差を計算し、抽出中の注意重みを動的に調整し、時間歪みに対する堅牢性を高める。
大規模な実験により、SKeDAは高い映像生成品質と透かしの堅牢性を保っていることが示された。
関連論文リスト
- Latent-Mark: An Audio Watermark Robust to Neural Resynthesis [62.09761127079914]
Latent-Markはセマンティック圧縮に耐えられるように設計された最初のゼロビットオーディオ透かしフレームワークである。
私たちの重要な洞察は、エンコード-デコードプロセスに対する堅牢性は、不変の潜在空間に透かしを埋め込む必要があるということです。
我々の研究は、ますます複雑で多様な生成歪みをまたいで整合性を維持することができる普遍的な透かしフレームワークに、将来の研究をインスピレーションを与えます。
論文 参考訳(メタデータ) (2026-03-05T15:51:09Z) - WaTeRFlow: Watermark Temporal Robustness via Flow Consistency [46.206343565195375]
We present WaTeRFlow, a framework designed for robustness under I2V。
エンコーダデコーダは、トレーニング中に命令駆動の編集と高速なビデオ拡散プロキシを通じて、現実的な歪みに晒される。
代表的I2Vモデルに対する実験では、フレームから正確なウォーターマーク回復を示し、フレーム単位の精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2025-12-22T05:33:59Z) - SPDMark: Selective Parameter Displacement for Robust Video Watermarking [30.398519705830264]
本研究ではSPDMarkと呼ばれる次世代ビデオ透かしの新しいフレームワークを紹介する。
ウォーターマークは生成モデル内のパラメータのサブセットを変更することで生成されたビデオに埋め込まれる。
テキスト・ツー・ビデオ生成モデルと画像・ビデオ生成モデルの評価は、SPDMarkが認識不能な透かしを生成する能力を示している。
論文 参考訳(メタデータ) (2025-12-12T23:35:13Z) - T2SMark: Balancing Robustness and Diversity in Noise-as-Watermark for Diffusion Models [89.29541056113442]
T2SMarkはTail-Truncated Smpling(TTS)に基づく2段階の透かし方式である
U-NetとDiTのバックボーンを用いた拡散モデル上でのT2SMarkの評価を行った。
論文 参考訳(メタデータ) (2025-10-25T16:55:55Z) - TAG-WM: Tamper-Aware Generative Image Watermarking via Diffusion Inversion Sensitivity [76.98973481600002]
本稿では,TAG-WMと命名されたタンパ認識画像ウォーターマーキング手法を提案する。
提案手法は、4つのキーモジュールからなる: 生成品質を保ちつつ、著作権と局所化の透かしを潜伏空間に埋め込むためのデュアルマークジョイントサンプリング (DMJS) アルゴリズム。
実験結果から,TAG-WMは歪み下においても,改質性および局所化能力の両面において最先端性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-06-30T03:14:07Z) - Video Signature: In-generation Watermarking for Latent Video Diffusion Models [42.064769031646904]
ビデオシグナチャ (VID SIG) は、遅延ビデオ拡散モデルのための次世代透かし方式である。
我々は、潜伏型デコーダを部分的に微調整し、PAS(Perturbation-Aware Suppression)が事前に識別し、知覚に敏感な層を凍結する。
実験結果から, VID SIGは透かし抽出, 視覚的品質, 生成効率において, 最高の総合的な性能を発揮することがわかった。
論文 参考訳(メタデータ) (2025-05-31T17:43:54Z) - Safe-Sora: Safe Text-to-Video Generation via Graphical Watermarking [88.89887962002207]
目に見えない生成的な透かしは ビデオ生成において ほとんど未発見のままです
ビデオ生成プロセスに直接グラフィカルな透かしを埋め込む最初のフレームワークであるSafe-Soraを提案する。
Safe-Soraは,映像品質,透かしの忠実度,ロバスト性の観点から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-05-19T03:31:31Z) - VideoMark: A Distortion-Free Robust Watermarking Framework for Video Diffusion Models [18.427936201177122]
VideoMarkは、ビデオ拡散モデルのための歪みのない堅牢な透かしフレームワークである。
固定された透かしシーケンスを用いて擬似乱数誤り訂正(PRC)符号を用いたフレームワイド透かし方式を用いる。
透かし抽出のために,編集距離を利用して復号されたメッセージと元の透かしシーケンスを整列する時間マッチングモジュール(TMM)を提案する。
論文 参考訳(メタデータ) (2025-04-23T02:21:12Z) - SuperMark: Robust and Training-free Image Watermarking via Diffusion-based Super-Resolution [27.345134138673945]
我々は、堅牢でトレーニング不要な透かしフレームワークであるSuperMarkを提案する。
SuperMarkは既存の手法を使って初期ガウスノイズに透かしを埋め込む。
次に、トレーニング済みの超解像モデルを適用して、透かしのノイズを消音し、最終的な透かしの画像を生成する。
抽出には、透かし画像がDDIM変換により初期透かしノイズに逆戻りされ、埋め込み透かしが抽出される。
実験により、SuperMarkは既存のメソッドに匹敵する忠実性を達成し、ロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2024-12-13T11:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。