論文の概要: TEAR: Temporal-aware Automated Red-teaming for Text-to-Video Models
- arxiv url: http://arxiv.org/abs/2511.21145v1
- Date: Wed, 26 Nov 2025 07:58:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.018871
- Title: TEAR: Temporal-aware Automated Red-teaming for Text-to-Video Models
- Title(参考訳): TEAR: テキスト・ビデオ・モデルのためのタイムアウェア・オートマチック・リピート
- Authors: Jiaming He, Guanyu Hou, Hongwei Li, Zhicong Huang, Kangjie Chen, Yi Yu, Wenbo Jiang, Guowen Xu, Tianwei Zhang,
- Abstract要約: テキスト・トゥ・ビデオ(T2V)モデルは高品質で時間的に一貫性のあるダイナミックビデオコンテンツを合成することができる。
静的画像とテキスト生成に焦点を当てた既存の安全性評価手法は、ビデオ生成における複雑な時間的ダイナミクスを捉えるには不十分である。
本稿では,T2Vモデルの動的時間的シークエンシングと関係のある安全性リスクを明らかにするための自動フレームワークTEARを提案する。
- 参考スコア(独自算出の注目度): 36.61440730824693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-Video (T2V) models are capable of synthesizing high-quality, temporally coherent dynamic video content, but the diverse generation also inherently introduces critical safety challenges. Existing safety evaluation methods,which focus on static image and text generation, are insufficient to capture the complex temporal dynamics in video generation. To address this, we propose a TEmporal-aware Automated Red-teaming framework, named TEAR, an automated framework designed to uncover safety risks specifically linked to the dynamic temporal sequencing of T2V models. TEAR employs a temporal-aware test generator optimized via a two-stage approach: initial generator training and temporal-aware online preference learning, to craft textually innocuous prompts that exploit temporal dynamics to elicit policy-violating video output. And a refine model is adopted to improve the prompt stealthiness and adversarial effectiveness cyclically. Extensive experimental evaluation demonstrates the effectiveness of TEAR across open-source and commercial T2V systems with over 80% attack success rate, a significant boost from prior best result of 57%.
- Abstract(参考訳): テキスト・トゥ・ビデオ(T2V)モデルは高品質で時間的に一貫性のあるダイナミックビデオコンテンツを合成できるが、多種多様な世代は本質的に重要な安全上の課題をもたらす。
静的画像とテキスト生成に焦点を当てた既存の安全性評価手法は、ビデオ生成における複雑な時間的ダイナミクスを捉えるには不十分である。
そこで本研究では,T2Vモデルの動的時間的シークエンシングと関係のある安全性リスクを明らかにすることを目的として,TEPoral-aware Automated Red-teaming frameworkであるTEARを提案する。
TEARは、2段階のアプローチで最適化された時間認識テストジェネレータを採用している。最初のジェネレータトレーニングと時間認識オンライン嗜好学習は、時間的ダイナミクスを利用してポリシー違反のビデオ出力を誘発する、テキスト的に無害なプロンプトを作成する。
また, 高速ステルスネスと対角効果を周期的に向上するために, 精巧なモデルを採用した。
大規模な実験的評価は、オープンソースおよび商用T2Vシステムにおいて、80%以上の攻撃成功率を持つTEARの有効性を示す。
関連論文リスト
- Retrieval, Refinement, and Ranking for Text-to-Video Generation via Prompt Optimization and Test-Time Scaling [1.6671050178877669]
大規模なデータセットは、Text-to-Video(T2V)生成モデルに大きな進歩をもたらした。
ビデオ出力を改善する現在の方法は、しばしば不足する。
RAGベースの新しいプロンプト最適化フレームワークである3Rを導入する。
論文 参考訳(メタデータ) (2026-03-02T06:35:59Z) - T2VAttack: Adversarial Attack on Text-to-Video Diffusion Models [67.13397169618624]
本稿では,テキスト・トゥ・ビデオ(T2V)モデルに対するセマンティックおよび時間的観点からの敵対的攻撃に関する研究であるT2VAttackを紹介する。
提案手法は, 意味的, 時間的クリティカルな単語をプロンプトで識別し, アドレディ検索による同義語に置き換えるT2VAttack-Sと, 最適化された単語を最小の摂動で反復的に挿入するT2VAttack-Iである。
論文 参考訳(メタデータ) (2025-12-30T03:00:46Z) - Generative Pre-trained Autoregressive Diffusion Transformer [74.25668109048418]
GPDiT(GPDiT)は、自動回帰拡散変換器である。
長距離ビデオ合成における拡散と自己回帰モデリングの強みを統一する。
拡散損失を用いて将来の潜伏フレームを自動回帰予測し、運動力学の自然なモデリングを可能にする。
論文 参考訳(メタデータ) (2025-05-12T08:32:39Z) - T2V-OptJail: Discrete Prompt Optimization for Text-to-Video Jailbreak Attacks [67.91652526657599]
我々は、T2Vジェイルブレイク攻撃を離散最適化問題として定式化し、T2V-OptJailと呼ばれる共同目的ベース最適化フレームワークを提案する。
いくつかのT2Vモデルに対して大規模な実験を行い、オープンソースモデルと実際の商用クローズドソースモデルの両方をカバーする。
提案手法は,攻撃成功率の観点から既存手法よりも11.4%,10.0%向上する。
論文 参考訳(メタデータ) (2025-05-10T16:04:52Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - Identity-Preserving Text-to-Video Generation by Frequency Decomposition [52.19475797580653]
アイデンティティ保存型テキスト・ツー・ビデオ(IPT2V)生成は、一貫した人間のアイデンティティを持つ高忠実度ビデオを作成することを目的としている。
本稿では,PT2Vの技術フロンティアを,文献で未解決の2つの方向に推し進める。
本研究では,DiTをベースとした制御可能なPT2VモデルであるConsisIDを提案する。
論文 参考訳(メタデータ) (2024-11-26T13:58:24Z) - DirecT2V: Large Language Models are Frame-Level Directors for Zero-Shot
Text-to-Video Generation [37.25815760042241]
本稿では,テキスト・ツー・ビデオ(T2V)ビデオを生成するための新しいフレームワークであるDirecT2Vを紹介する。
拡散モデルに新しい値マッピング法とデュアルソフトマックスフィルタリングを適用し、追加のトレーニングを必要としない。
実験により,視覚的コヒーレントかつストーリーフルなビデオ制作におけるフレームワークの有効性が検証された。
論文 参考訳(メタデータ) (2023-05-23T17:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。