論文の概要: DINVMark: A Deep Invertible Network for Video Watermarking
- arxiv url: http://arxiv.org/abs/2509.17416v1
- Date: Mon, 22 Sep 2025 07:08:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:38:02.009689
- Title: DINVMark: A Deep Invertible Network for Video Watermarking
- Title(参考訳): DINVMark:ビデオ透かしのためのディープ・インバーティブル・ネットワーク
- Authors: Jianbin Ji, Dawen Xu, Li Dong, Lin Yang, Songhan He,
- Abstract要約: 本稿では,Deep Invertible Network for Video Watermarking (DINVMark)を紹介し,HEVC圧縮をシミュレートするノイズ層を設計する。
その結果,提案手法は透かしの堅牢性を著しく向上し,映像品質を保ち,透かしの埋め込み能力を大幅に向上させることがわかった。
- 参考スコア(独自算出の注目度): 17.63051709541545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the wide spread of video, video watermarking has become increasingly crucial for copyright protection and content authentication. However, video watermarking still faces numerous challenges. For example, existing methods typically have shortcomings in terms of watermarking capacity and robustness, and there is a lack of specialized noise layer for High Efficiency Video Coding(HEVC) compression. To address these issues, this paper introduces a Deep Invertible Network for Video watermarking (DINVMark) and designs a noise layer to simulate HEVC compression. This approach not only in creases watermarking capacity but also enhances robustness. DINVMark employs an Invertible Neural Network (INN), where the encoder and decoder share the same network structure for both watermark embedding and extraction. This shared architecture ensures close coupling between the encoder and decoder, thereby improving the accuracy of the watermark extraction process. Experimental results demonstrate that the proposed scheme significantly enhances watermark robustness, preserves video quality, and substantially increases watermark embedding capacity.
- Abstract(参考訳): ビデオの普及に伴い、ビデオ透かしは著作権保護とコンテンツ認証にとってますます重要になっている。
しかし、ビデオ透かしは依然として多くの課題に直面している。
例えば、既存の手法は、透かし能力とロバスト性の観点からは欠点があり、高効率ビデオ符号化(HEVC)圧縮のための特殊なノイズ層が欠如している。
これらの問題に対処するために,DINVMark(Deep Invertible Network for Video watermarking)を導入し,HEVC圧縮をシミュレートするノイズ層を設計する。
このアプローチは、透かしのキャパシティを切断するだけでなく、堅牢性を高める。
DINVMarkはInvertible Neural Network (INN)を採用しており、エンコーダとデコーダは同じネットワーク構造をウォーターマークの埋め込みと抽出の両方で共有している。
この共有アーキテクチャにより、エンコーダとデコーダの密結合が保証され、透かし抽出プロセスの精度が向上する。
実験の結果,提案手法は透かしの堅牢性を著しく向上し,映像品質を保ち,透かしの埋め込み能力を大幅に向上させることがわかった。
関連論文リスト
- TAG-WM: Tamper-Aware Generative Image Watermarking via Diffusion Inversion Sensitivity [76.98973481600002]
本稿では,TAG-WMと命名されたタンパ認識画像ウォーターマーキング手法を提案する。
提案手法は、4つのキーモジュールからなる: 生成品質を保ちつつ、著作権と局所化の透かしを潜伏空間に埋め込むためのデュアルマークジョイントサンプリング (DMJS) アルゴリズム。
実験結果から,TAG-WMは歪み下においても,改質性および局所化能力の両面において最先端性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-06-30T03:14:07Z) - Video Signature: In-generation Watermarking for Latent Video Diffusion Models [42.064769031646904]
ビデオシグナチャ (VID SIG) は、遅延ビデオ拡散モデルのための次世代透かし方式である。
我々は、潜伏型デコーダを部分的に微調整し、PAS(Perturbation-Aware Suppression)が事前に識別し、知覚に敏感な層を凍結する。
実験結果から, VID SIGは透かし抽出, 視覚的品質, 生成効率において, 最高の総合的な性能を発揮することがわかった。
論文 参考訳(メタデータ) (2025-05-31T17:43:54Z) - Safe-Sora: Safe Text-to-Video Generation via Graphical Watermarking [88.89887962002207]
目に見えない生成的な透かしは ビデオ生成において ほとんど未発見のままです
ビデオ生成プロセスに直接グラフィカルな透かしを埋め込む最初のフレームワークであるSafe-Soraを提案する。
Safe-Soraは,映像品質,透かしの忠実度,ロバスト性の観点から,最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-05-19T03:31:31Z) - VideoMark: A Distortion-Free Robust Watermarking Framework for Video Diffusion Models [18.427936201177122]
VideoMarkは、ビデオ拡散モデルのための歪みのない堅牢な透かしフレームワークである。
固定された透かしシーケンスを用いて擬似乱数誤り訂正(PRC)符号を用いたフレームワイド透かし方式を用いる。
透かし抽出のために,編集距離を利用して復号されたメッセージと元の透かしシーケンスを整列する時間マッチングモジュール(TMM)を提案する。
論文 参考訳(メタデータ) (2025-04-23T02:21:12Z) - On the Coexistence and Ensembling of Watermarks [93.15379331904602]
様々なオープンソースの透かしは、画像の品質と復号性に小さな影響しか与えない。
我々は、アンサンブルがメッセージ全体のキャパシティを向上し、基本モデルを再トレーニングすることなく、キャパシティ、正確性、堅牢性、画像品質の新たなトレードオフを可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-29T00:37:06Z) - Video Seal: Open and Efficient Video Watermarking [47.40833588157406]
ビデオ透かしは、認識不能な信号をビデオに埋め込むことによって、課題に対処する。
Video Sealは、ニューラルビデオ透かしのための包括的なフレームワークであり、競合するオープンソースモデルである。
提案手法の有効性を, 速度, 不受容性, 頑健性の観点から実験的に検証した。
論文 参考訳(メタデータ) (2024-12-12T17:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。