論文の概要: From Covert Hiding to Visual Editing: Robust Generative Video
Steganography
- arxiv url: http://arxiv.org/abs/2401.00652v1
- Date: Mon, 1 Jan 2024 03:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 16:34:58.272317
- Title: From Covert Hiding to Visual Editing: Robust Generative Video
Steganography
- Title(参考訳): covert hideからビジュアル編集へ:ロバストな生成的ビデオステガノグラフィ
- Authors: Xueying Mao, Xiaoxiao Hu, Wanli Peng, Zhenliang Gan, Qichao Ying,
Zhenxing Qian, Sheng Li and Xinpeng Zhang
- Abstract要約: 本稿では,ビデオ編集過程におけるステガノグラフィーのためのシークレットメッセージをセマンティック機能に組み込む革新的な手法を提案する。
本稿では,ビデオのセマンティックな特徴を変化させて,秘密メッセージを埋め込むことで視覚的編集を実現する,エンドツーエンドの堅牢なビデオステガノグラフィーネットワーク(RoGVS)を提案する。
- 参考スコア(独自算出の注目度): 34.99965076701196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional video steganography methods are based on modifying the covert
space for embedding, whereas we propose an innovative approach that embeds
secret message within semantic feature for steganography during the video
editing process. Although existing traditional video steganography methods
display a certain level of security and embedding capacity, they lack adequate
robustness against common distortions in online social networks (OSNs). In this
paper, we introduce an end-to-end robust generative video steganography network
(RoGVS), which achieves visual editing by modifying semantic feature of videos
to embed secret message. We employ face-swapping scenario to showcase the
visual editing effects. We first design a secret message embedding module to
adaptively hide secret message into the semantic feature of videos. Extensive
experiments display that the proposed RoGVS method applied to facial video
datasets demonstrate its superiority over existing video and image
steganography techniques in terms of both robustness and capacity.
- Abstract(参考訳): 従来のビデオステガノグラフィ手法は埋め込みのための隠れ空間の修正に基づいているが,ビデオ編集プロセスにおいて,セマンティクス機能にシークレットメッセージを組み込む革新的な手法を提案する。
既存の従来のビデオステガノグラフィー手法はある程度のセキュリティと埋め込み能力を示すが、オンライン・ソーシャルネットワーク(osns)における一般的な歪みに対する十分な堅牢性には欠ける。
本稿では,ビデオの意味的特徴を改変してシークレットメッセージを埋め込み,映像編集を実現する,エンドツーエンドのロバストな生成ビデオステガノグラフィネットワーク(rogvs)を提案する。
我々は,視覚編集効果の提示に顔スワッピングシナリオを用いる。
まず,ビデオのセマンティック機能に秘密メッセージを適応的に隠蔽する秘密メッセージ埋め込みモジュールを設計する。
顔画像データセットに適用したRoGVS法は,ロバスト性とキャパシティの両方の観点から,既存のビデオ・画像ステガノグラフィー技術よりも優れていることを示す。
関連論文リスト
- Blended Latent Diffusion under Attention Control for Real-World Video Editing [5.659933808910005]
本稿では,局所的なビデオ編集作業を行うために,画像レベルのブレンド潜在拡散モデルを適用することを提案する。
具体的には、DDIMのインバージョンを利用して、ランダムにノイズのあるものではなく、背景の潜伏者として潜伏者を取得する。
また,拡散段階におけるクロスアテンションマップから導かれる自律マスク製造機構を導入する。
論文 参考訳(メタデータ) (2024-09-05T13:23:52Z) - FLATTEN: optical FLow-guided ATTENtion for consistent text-to-video
editing [65.60744699017202]
拡散モデルのU-Netにおける注目モジュールに光フローを導入し,テキスト対ビデオ編集の不整合問題に対処する。
提案手法であるFLATTENでは,異なるフレームにまたがる同一フローパス上のパッチを適用して,アテンションモジュール内の相互にアテンションする。
既存のテキスト・ビデオ編集ベンチマークの結果から,提案手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-10-09T17:59:53Z) - TokenFlow: Consistent Diffusion Features for Consistent Video Editing [27.736354114287725]
本稿では,テキスト駆動ビデオ編集作業において,テキスト間拡散モデルのパワーを利用するフレームワークを提案する。
提案手法は,入力ビデオの空間的レイアウトと動きを保ちながら,ターゲットテキストに付着した高品質な映像を生成する。
我々のフレームワークは、トレーニングや微調整を一切必要とせず、市販のテキスト・ツー・イメージ編集手法と連携して動作する。
論文 参考訳(メタデータ) (2023-07-19T18:00:03Z) - Make-A-Protagonist: Generic Video Editing with An Ensemble of Experts [116.05656635044357]
我々はMake-A-Protagonistと呼ばれる一般的なビデオ編集フレームワークを提案する。
具体的には、複数の専門家を利用してソース映像を解析し、視覚的・テキスト的手がかりをターゲットとし、視覚的・テキスト的映像生成モデルを提案する。
その結果,Make-A-Protagonistの多種多様な編集能力を実証した。
論文 参考訳(メタデータ) (2023-05-15T17:59:03Z) - Style-A-Video: Agile Diffusion for Arbitrary Text-based Video Style
Transfer [13.098901971644656]
本稿では,Style-A-Video というゼロショットビデオスタイリング手法を提案する。
画像遅延拡散モデルを用いた生成事前学習型トランスフォーマーを用いて、簡潔なテキスト制御ビデオスタイリングを実現する。
テストの結果,従来のソリューションよりも少ない使用量で,優れたコンテンツ保存とスタイリスティックな性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-09T14:03:27Z) - Large-capacity and Flexible Video Steganography via Invertible Neural
Network [60.34588692333379]
大容量フレキシブルビデオステレオグラフィーネットワーク(LF-VSN)を提案する。
大容量のために、単一の可逆ニューラルネットワーク(INN)を介して複数のビデオの隠蔽と回復を行う可逆パイプラインを提案する。
フレキシビリティのために、異なる受信機が特定の秘密映像を同じカバービデオから特定のキーを介して復元できるキー制御可能なスキームを提案する。
論文 参考訳(メタデータ) (2023-04-24T17:51:35Z) - FateZero: Fusing Attentions for Zero-shot Text-based Video Editing [104.27329655124299]
本研究では,FateZeroを提案する。FateZeroは,実世界のビデオに対して,プロンプトごとのトレーニングや使用専用のマスクを使わずに,ゼロショットのテキストベースの編集手法である。
本手法は、ゼロショットテキスト駆動型ビデオスタイルと、訓練されたテキスト・ツー・イメージモデルからローカル属性を編集する機能を示す最初の方法である。
論文 参考訳(メタデータ) (2023-03-16T17:51:13Z) - GL-RG: Global-Local Representation Granularity for Video Captioning [52.56883051799501]
ビデオキャプションのためのGL-RGフレームワーク,すなわちtextbfGlobal-textbfLocal textbfRepresentation textbfGranularityを提案する。
GL-RGは従来の取り組みに対して3つの利点を挙げている: 1) 異なるビデオ範囲から広範囲の視覚表現を明示的に活用して言語表現を改善する; 2) フレーム間の映像コンテンツの記述的粒度を得るために、リッチなセマンティック語彙を生成する新しいグローバルローカルエンコーダを考案する; 3) モデル学習をインクリメンタルに組織し、最適なキャプションを創出するインクリメンタルトレーニング戦略を開発する。
論文 参考訳(メタデータ) (2022-05-22T02:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。