論文の概要: Large-capacity and Flexible Video Steganography via Invertible Neural
Network
- arxiv url: http://arxiv.org/abs/2304.12300v1
- Date: Mon, 24 Apr 2023 17:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 13:59:27.897191
- Title: Large-capacity and Flexible Video Steganography via Invertible Neural
Network
- Title(参考訳): インバータブルニューラルネットワークを用いた大容量フレキシブルビデオステガノグラフィ
- Authors: Chong Mou, Youmin Xu, Jiechong Song, Chen Zhao, Bernard Ghanem, Jian
Zhang
- Abstract要約: 大容量フレキシブルビデオステレオグラフィーネットワーク(LF-VSN)を提案する。
大容量のために、単一の可逆ニューラルネットワーク(INN)を介して複数のビデオの隠蔽と回復を行う可逆パイプラインを提案する。
フレキシビリティのために、異なる受信機が特定の秘密映像を同じカバービデオから特定のキーを介して復元できるキー制御可能なスキームを提案する。
- 参考スコア(独自算出の注目度): 60.34588692333379
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video steganography is the art of unobtrusively concealing secret data in a
cover video and then recovering the secret data through a decoding protocol at
the receiver end. Although several attempts have been made, most of them are
limited to low-capacity and fixed steganography. To rectify these weaknesses,
we propose a Large-capacity and Flexible Video Steganography Network (LF-VSN)
in this paper. For large-capacity, we present a reversible pipeline to perform
multiple videos hiding and recovering through a single invertible neural
network (INN). Our method can hide/recover 7 secret videos in/from 1 cover
video with promising performance. For flexibility, we propose a
key-controllable scheme, enabling different receivers to recover particular
secret videos from the same cover video through specific keys. Moreover, we
further improve the flexibility by proposing a scalable strategy in multiple
videos hiding, which can hide variable numbers of secret videos in a cover
video with a single model and a single training session. Extensive experiments
demonstrate that with the significant improvement of the video steganography
performance, our proposed LF-VSN has high security, large hiding capacity, and
flexibility. The source code is available at https://github.com/MC-E/LF-VSN.
- Abstract(参考訳): ビデオステガノグラフィ(英: video steganography)とは、秘密データを隠して、受信側端の復号プロトコルを介して秘密データを復元する技術である。
いくつかの試みがなされているが、そのほとんどは低容量と固定ステガノグラフィーに限られている。
本稿では,これらの弱点を正すため,大容量で柔軟なビデオステガノグラフィーネットワーク(lf-vsn)を提案する。
大容量のために、単一の可逆ニューラルネットワーク(INN)を介して複数のビデオの隠蔽と回復を行う可逆パイプラインを提案する。
提案手法は、7本の秘密映像を1枚のカバービデオに隠蔽・復元できる。
柔軟性のために,異なる受信者が同一のカバービデオから特定のキーを通じて特定の秘密映像を復元できるキー制御方式を提案する。
さらに、複数のビデオの隠蔽において、単一のモデルと単一のトレーニングセッションで、様々な数の秘密映像を隠蔽できるスケーラブルな戦略を提案することにより、柔軟性をさらに向上する。
ビデオステガノグラフィー性能の大幅な向上により,提案したLF-VSNは高いセキュリティ,大規模な隠蔽能力,柔軟性を有することが示された。
ソースコードはhttps://github.com/MC-E/LF-VSN.comで入手できる。
関連論文リスト
- PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - From Covert Hiding to Visual Editing: Robust Generative Video
Steganography [34.99965076701196]
本稿では,ビデオ編集過程におけるステガノグラフィーのためのシークレットメッセージをセマンティック機能に組み込む革新的な手法を提案する。
本稿では,ビデオのセマンティックな特徴を変化させて,秘密メッセージを埋め込むことで視覚的編集を実現する,エンドツーエンドの堅牢なビデオステガノグラフィーネットワーク(RoGVS)を提案する。
論文 参考訳(メタデータ) (2024-01-01T03:40:07Z) - Video Infringement Detection via Feature Disentanglement and Mutual
Information Maximization [51.206398602941405]
本稿では,元の高次元特徴を複数のサブ機能に分解することを提案する。
歪んだサブ機能の上に,サブ機能を強化する補助的特徴を学習する。
提案手法は,大規模SVDデータセット上で90.1%のTOP-100 mAPを達成し,VCSLベンチマークデータセット上で新たな最先端を設定できる。
論文 参考訳(メタデータ) (2023-09-13T10:53:12Z) - Towards Scalable Neural Representation for Diverse Videos [68.73612099741956]
Inlicit Neural representations (INR)は、3Dシーンや画像の表現において注目を集めている。
既存のINRベースの手法は、冗長な視覚コンテンツを持つ短いビデオの符号化に限られている。
本稿では,多種多様な視覚コンテンツを持つ長編・多作ビデオの符号化のためのニューラル表現の開発に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Contrastive Masked Autoencoders for Self-Supervised Video Hashing [54.636976693527636]
SSVH(Self-Supervised Video Hashing)モデルは,ビデオの短いバイナリ表現を生成することを学ぶ。
本稿では,映像意味情報と映像類似性関係理解を組み込んだ,シンプルで効果的なワンステージSSVH手法であるConMHを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:48:14Z) - Text-Driven Video Acceleration: A Weakly-Supervised Reinforcement
Learning Method [6.172652648945223]
本稿では,テキストを用いた指導ビデオの高速化を目的とした,弱教師付き手法を提案する。
新たな共同報酬関数がエージェントを誘導し、どのフレームから入力ビデオを取り除き、ターゲット長に減らすかを選択する。
また,高度に識別可能な埋め込み空間を生成可能な拡張視覚誘導型文書注意ネットワーク(VDAN+)を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:43:01Z) - Deep Video Prior for Video Consistency and Propagation [58.250209011891904]
視覚的ビデオの時間的整合性に対する新規で一般的なアプローチを提案する。
提案手法は,大規模なデータセットではなく,オリジナルビデオとプロセッシングビデオのペアでのみ訓練される。
我々は、Deep Video Priorでビデオ上で畳み込みニューラルネットワークをトレーニングすることで、時間的一貫性を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-27T16:38:52Z) - Less is More: ClipBERT for Video-and-Language Learning via Sparse
Sampling [98.41300980759577]
ビデオと言語の学習に対する標準的なアプローチは、オフラインで抽出された高密度ビデオ機能から学習するニューラルネットワークを規定する。
本稿では,ビデオ・言語タスクに対して,手頃なエンドツーエンド学習を可能にする汎用フレームワークClipBERTを提案する。
6つのデータセットにおけるテキスト・ビデオ検索とビデオ質問応答の実験は、ClipBERTが既存の手法より優れていることを示した。
論文 参考訳(メタデータ) (2021-02-11T18:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。