論文の概要: VideoGuard: Protecting Video Content from Unauthorized Editing
- arxiv url: http://arxiv.org/abs/2508.03480v1
- Date: Tue, 05 Aug 2025 14:13:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.002256
- Title: VideoGuard: Protecting Video Content from Unauthorized Editing
- Title(参考訳): VideoGuard: 未承認の編集からビデオコンテンツを保護する
- Authors: Junjie Cao, Kaizhou Li, Xinchun Yu, Hongxiang Li, Xiaoping Zhang,
- Abstract要約: 生成技術は、高忠実なデジタルコンテンツを生成し、それを制御された方法で編集することができる。
既存の研究では、画像が生成モデルによって操作されるのを防ぐ試みがなされている。
本稿では,不正な編集から映像を効果的に保護するVideoGuardという保護手法を提案する。
- 参考スコア(独自算出の注目度): 8.42542129838015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of generative technology, current generative models can generate high-fidelity digital content and edit it in a controlled manner. However, there is a risk that malicious individuals might misuse these capabilities for misleading activities. Although existing research has attempted to shield photographic images from being manipulated by generative models, there remains a significant disparity in the protection offered to video content editing. To bridge the gap, we propose a protection method named VideoGuard, which can effectively protect videos from unauthorized malicious editing. This protection is achieved through the subtle introduction of nearly unnoticeable perturbations that interfere with the functioning of the intended generative diffusion models. Due to the redundancy between video frames, and inter-frame attention mechanism in video diffusion models, simply applying image-based protection methods separately to every video frame can not shield video from unauthorized editing. To tackle the above challenge, we adopt joint frame optimization, treating all video frames as an optimization entity. Furthermore, we extract video motion information and fuse it into optimization objectives. Thus, these alterations can effectively force the models to produce outputs that are implausible and inconsistent. We provide a pipeline to optimize this perturbation. Finally, we use both objective metrics and subjective metrics to demonstrate the efficacy of our method, and the results show that the protection performance of VideoGuard is superior to all the baseline methods.
- Abstract(参考訳): 生成技術の急速な発展により、現在の生成モデルは高忠実なデジタルコンテンツを生成し、制御された方法で編集することができる。
しかし、悪意のある個人がこれらの能力を誤用して誤った行動を起こすリスクがある。
既存の研究では、画像が生成モデルによって操作されることを防ごうとしているが、ビデオコンテンツ編集に提供される保護には大きな違いがある。
このギャップを埋めるために,ビデオガードという,不正な編集から映像を効果的に保護する保護手法を提案する。
この保護は、意図された生成拡散モデルの機能を妨げるほとんど目立たない摂動の微妙な導入によって達成される。
ビデオフレーム間の冗長性や、ビデオ拡散モデルにおけるフレーム間注意機構のため、画像ベースの保護手法をすべてのビデオフレームに別々に適用するだけでは、ビデオの不正な編集を防げない。
上記の課題に対処するために、我々は、すべてのビデオフレームを最適化エンティティとして扱う、ジョイントフレーム最適化を採用した。
さらに,映像の動作情報を抽出し,最適化目的に融合する。
したがって、これらの変更は、モデルに不明瞭で一貫性のない出力を効果的に生成させることができる。
この摂動を最適化するためのパイプラインを提供します。
最後に,本手法の有効性を示すために,客観的指標と主観的指標の両方を用い,ビデオガードの保護性能がすべての基準手法よりも優れていることを示す。
関連論文リスト
- Protecting Your Video Content: Disrupting Automated Video-based LLM Annotations [48.94868867419852]
ビデオベースの大規模言語モデル(ビデオベースのLLM)は、様々なビデオ理解タスクにおいて印象的なパフォーマンスを実現している。
この急速な進歩は、特に個人ビデオデータの不正使用に関して、重要なプライバシーとセキュリティ上の懸念を引き起こす。
本研究では,ラムブリングスとミュートという,知覚不能な対向性摂動を伴う2種類の保護ビデオ透かしを提案する。
論文 参考訳(メタデータ) (2025-03-26T08:11:58Z) - Anti-Diffusion: Preventing Abuse of Modifications of Diffusion-Based Models [48.15314463057229]
拡散に基づく技術は、深刻なネガティブな社会的影響を引き起こす可能性がある。
拡散に基づく手法の悪用に対する防御を提供するために、いくつかの研究が提案されている。
本稿では,チューニングと編集の両方に適用可能なプライバシー保護システムであるアンチ拡散を提案する。
論文 参考訳(メタデータ) (2025-03-07T17:23:52Z) - GuardDoor: Safeguarding Against Malicious Diffusion Editing via Protective Backdoors [8.261182037130407]
GuardDoorは、イメージオーナとモデルプロバイダ間のコラボレーションを促進する、新しくて堅牢な保護メカニズムである。
本手法は,画像前処理操作に対するロバスト性を向上し,大規模展開にスケーラブルであることを示す。
論文 参考訳(メタデータ) (2025-03-05T22:21:44Z) - VideoAnydoor: High-fidelity Video Object Insertion with Precise Motion Control [66.66226299852559]
VideoAnydoorは、高忠実度ディテール保存と正確なモーションコントロールを備えたゼロショットビデオオブジェクト挿入フレームワークである。
詳細な外観を保ちながら、微粒な動き制御をサポートするため、我々は画素ワーパーを設計する。
論文 参考訳(メタデータ) (2025-01-02T18:59:54Z) - Generative Video Propagation [87.15843701018099]
我々のフレームワークであるGenPropは、オリジナルビデオを選択コンテンツエンコーダでエンコードし、画像から映像への生成モデルを用いて第1フレームに変更を伝達する。
実験結果は,様々なビデオタスクにおいて,我々のモデルが先行する性能を示す。
論文 参考訳(メタデータ) (2024-12-27T17:42:29Z) - UVCG: Leveraging Temporal Consistency for Universal Video Protection [27.03089083282734]
悪意ある編集から映像コンテンツを保護するためにユニバーサルビデオ一貫性ガード(UVCG)を提案する。
UVCGは、連続的かつ知覚不能な摂動を導入することで、他のビデオのコンテンツを保護ビデオに埋め込む。
UVCGをLDM(Latent Diffusion Models)の様々なバージョンに適用し、その有効性と複数の編集パイプラインにおける一般化性を評価する。
論文 参考訳(メタデータ) (2024-11-25T08:48:54Z) - Shaping a Stabilized Video by Mitigating Unintended Changes for Concept-Augmented Video Editing [12.38953947065143]
本研究は、多種多様な安定したターゲット映像を柔軟に生成する改良されたコンセプト拡張ビデオ編集手法を提案する。
このフレームワークには、概念強化されたテキストインバージョンと、二重の事前監視機構が含まれる。
包括的評価により,本手法はより安定的で生活的なビデオを生成し,最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-10-16T13:03:15Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Pixel Is Not a Barrier: An Effective Evasion Attack for Pixel-Domain Diffusion Models [9.905296922309157]
拡散モデルは高品質な画像合成のための強力な生成モデルとして登場し、それに基づく画像編集技術も数多くある。
従来の研究は、知覚不能な摂動を加えることで、画像の拡散に基づく編集を防ごうとしてきた。
本研究は,UNETの脆弱性を利用した新たな攻撃フレームワークであるAtkPDMと,敵画像の自然性を高めるための潜在最適化戦略を提案する。
論文 参考訳(メタデータ) (2024-08-21T17:56:34Z) - Zero-Shot Video Editing through Adaptive Sliding Score Distillation [51.57440923362033]
本研究は,オリジナルビデオコンテンツの直接操作を容易にする,ビデオベースのスコア蒸留の新たなパラダイムを提案する。
本稿では,グローバルとローカルの両方の動画ガイダンスを取り入れた適応スライディングスコア蒸留方式を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:33:59Z) - I2VEdit: First-Frame-Guided Video Editing via Image-to-Video Diffusion Models [18.36472998650704]
本稿では,1フレームからビデオ全体への編集を事前学習した画像対ビデオモデルを用いてプロパガンダすることで,画像編集ツールをビデオに適用可能にする,新しい汎用的ソリューションを提案する。
I2VEditと呼ばれる本手法は,編集範囲に応じて映像の視覚的・運動的整合性を適応的に保持する。
論文 参考訳(メタデータ) (2024-05-26T11:47:40Z) - Control-A-Video: Controllable Text-to-Video Diffusion Models with Motion Prior and Reward Feedback Learning [50.60891619269651]
Control-A-Videoは制御可能なT2V拡散モデルであり、テキストプロンプトやエッジや奥行きマップのような参照制御マップに条件付のビデオを生成することができる。
本稿では,拡散に基づく生成プロセスに,コンテンツの事前と動作を組み込む新しい手法を提案する。
我々のフレームワークは、制御可能なテキスト・ツー・ビデオ生成における既存の最先端手法と比較して、高品質で一貫性のあるビデオを生成する。
論文 参考訳(メタデータ) (2023-05-23T09:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。