論文の概要: VideoEraser: Concept Erasure in Text-to-Video Diffusion Models
- arxiv url: http://arxiv.org/abs/2508.15314v2
- Date: Wed, 27 Aug 2025 08:48:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 12:43:57.467389
- Title: VideoEraser: Concept Erasure in Text-to-Video Diffusion Models
- Title(参考訳): VideoEraser: テキストとビデオの拡散モデルにおける概念の消去
- Authors: Naen Xu, Jinghuai Zhang, Changjiang Li, Zhi Chen, Chunyi Zhou, Qingming Li, Tianyu Du, Shouling Ji,
- Abstract要約: VideoEraserはトレーニング不要のフレームワークで、T2V拡散モデルが望ましくない概念でビデオを生成するのを防ぐ。
VideoEraserは、有効性、完全性、忠実性、堅牢性、一般化性に関する先行手法を一貫して上回っている。
- 参考スコア(独自算出の注目度): 47.56791061013888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of text-to-video (T2V) diffusion models has raised concerns about privacy, copyright, and safety due to their potential misuse in generating harmful or misleading content. These models are often trained on numerous datasets, including unauthorized personal identities, artistic creations, and harmful materials, which can lead to uncontrolled production and distribution of such content. To address this, we propose VideoEraser, a training-free framework that prevents T2V diffusion models from generating videos with undesirable concepts, even when explicitly prompted with those concepts. Designed as a plug-and-play module, VideoEraser can seamlessly integrate with representative T2V diffusion models via a two-stage process: Selective Prompt Embedding Adjustment (SPEA) and Adversarial-Resilient Noise Guidance (ARNG). We conduct extensive evaluations across four tasks, including object erasure, artistic style erasure, celebrity erasure, and explicit content erasure. Experimental results show that VideoEraser consistently outperforms prior methods regarding efficacy, integrity, fidelity, robustness, and generalizability. Notably, VideoEraser achieves state-of-the-art performance in suppressing undesirable content during T2V generation, reducing it by 46% on average across four tasks compared to baselines.
- Abstract(参考訳): テキスト・ツー・ビデオ(T2V)拡散モデルの急速な成長は、有害なコンテンツや誤解を招くコンテンツの悪用の可能性から、プライバシー、著作権、安全性に対する懸念を引き起こしている。
これらのモデルは、無許可の個人識別、芸術的創造物、有害物質など、多くのデータセットで訓練されており、制御されていないコンテンツの制作と配布につながる可能性がある。
そこで本研究では,T2V拡散モデルが望ましくない概念を持つビデオを生成するのを防ぐ,トレーニング不要なフレームワークであるVideoEraserを提案する。
プラグアンドプレイモジュールとして設計されたVideoEraserは、Selective Prompt Embedding Adjustment (SPEA)とAdversarial-Resilient Noise Guidance (ARNG)という2段階のプロセスを通じて、代表的T2V拡散モデルとシームレスに統合することができる。
対象の消去,芸術的スタイルの消去,有名人の消去,明示的な内容の消去など,4つの課題にまたがって広範な評価を行う。
実験結果から, VideoEraserは有効性, 完全性, 忠実性, 堅牢性, 一般化性に関して, 従来手法より一貫して優れていた。
特に、VideoEraserは、T2V生成時に望ましくないコンテンツを抑え、ベースラインと比較して4つのタスクで平均46%削減する、最先端のパフォーマンスを実現している。
関連論文リスト
- T2VUnlearning: A Concept Erasing Method for Text-to-Video Diffusion Models [5.876360170606312]
本稿では,テキスト・ツー・ビデオ(T2V)モデルに対する頑健で高精度な未学習手法を提案する。
正確なアンラーニングを実現するために,モデルの非ターゲット概念生成能力を維持するために,ローカライゼーションと保存正規化を組み込んだ。
本手法は,既存の手法よりも優れたモデル生成能力を保ちながら,特定の概念を効果的に消去する。
論文 参考訳(メタデータ) (2025-05-23T06:56:32Z) - BadVideo: Stealthy Backdoor Attack against Text-to-Video Generation [37.055665794706336]
テキスト・ツー・ビデオ(T2V)生成モデルは急速に進歩し、エンターテイメント、教育、マーケティングといった分野に広く応用されている。
我々は、T2V生成タスクにおいて、生成されたビデオはテキストプロンプトに明示的に指定されていないかなりの冗長な情報を含むことが多いことを観察する。
我々は、T2V生成に適した最初のバックドアアタックフレームワークであるBadVideoを紹介した。
論文 参考訳(メタデータ) (2025-04-23T17:34:48Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - SAFREE: Training-Free and Adaptive Guard for Safe Text-to-Image And Video Generation [65.30207993362595]
安全な生成のための学習/編集に基づく手法は、モデルから有害な概念を取り除くが、いくつかの課題に直面している。
安全なT2IとT2VのためのトレーニングフリーアプローチであるSAFREEを提案する。
テキスト埋め込み空間における有毒な概念の集合に対応する部分空間を検出し、この部分空間から直ちに埋め込みを行う。
論文 参考訳(メタデータ) (2024-10-16T17:32:23Z) - Exploring Pre-trained Text-to-Video Diffusion Models for Referring Video Object Segmentation [72.90144343056227]
ビデオ理解タスクのためのテキスト・ツー・ビデオ拡散モデル(T2V)から生成した視覚的表現について検討する。
固定されたT2Vモデル上に構築された専用コンポーネントを備えた新しいフレームワーク「VD-IT」を紹介する。
我々のVD-ITは、既存の最先端手法を超越して、非常に競争力のある結果を得る。
論文 参考訳(メタデータ) (2024-03-18T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。