論文の概要: StegaVAR: Privacy-Preserving Video Action Recognition via Steganographic Domain Analysis
- arxiv url: http://arxiv.org/abs/2512.12586v1
- Date: Sun, 14 Dec 2025 07:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.329363
- Title: StegaVAR: Privacy-Preserving Video Action Recognition via Steganographic Domain Analysis
- Title(参考訳): StegaVAR: ステレオドメイン分析によるプライバシー保護ビデオアクション認識
- Authors: Lixin Chen, Chaomeng Chen, Jiale Zhou, Zhijian Wu, Xun Lin,
- Abstract要約: 現在のプライバシー手法は、しばしば匿名化に依存している。
本稿では,アクション動画を通常のカバービデオに埋め込むフレームワークであるStegatemporalを提案する。
本稿では,Stegatemporalが広く使用されているデータセットに対して,優れたVARおよびプライバシ・テンポラリ・テンポラリ性能を実現することを示す。
- 参考スコア(独自算出の注目度): 12.164077217911343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the rapid progress of deep learning in video action recognition (VAR) in recent years, privacy leakage in videos remains a critical concern. Current state-of-the-art privacy-preserving methods often rely on anonymization. These methods suffer from (1) low concealment, where producing visually distorted videos that attract attackers' attention during transmission, and (2) spatiotemporal disruption, where degrading essential spatiotemporal features for accurate VAR. To address these issues, we propose StegaVAR, a novel framework that embeds action videos into ordinary cover videos and directly performs VAR in the steganographic domain for the first time. Throughout both data transmission and action analysis, the spatiotemporal information of hidden secret video remains complete, while the natural appearance of cover videos ensures the concealment of transmission. Considering the difficulty of steganographic domain analysis, we propose Secret Spatio-Temporal Promotion (STeP) and Cross-Band Difference Attention (CroDA) for analysis within the steganographic domain. STeP uses the secret video to guide spatiotemporal feature extraction in the steganographic domain during training. CroDA suppresses cover interference by capturing cross-band semantic differences. Experiments demonstrate that StegaVAR achieves superior VAR and privacy-preserving performance on widely used datasets. Moreover, our framework is effective for multiple steganographic models.
- Abstract(参考訳): 近年、ビデオ行動認識(VAR)におけるディープラーニングの急速な進歩にもかかわらず、ビデオのプライバシー漏洩は依然として重要な懸念点である。
現在の最先端のプライバシー保護手法は、しばしば匿名化に依存している。
これらの手法は,(1)送信中の攻撃者の注意を惹きつける映像を視覚的に歪ませる低隠蔽,(2)正確なVARに不可欠な時空間的特徴を劣化させる時空間的破壊に悩まされる。
これらの課題に対処するために,アクションビデオを通常のカバービデオに埋め込んだ新しいフレームワークであるStegaVARを提案する。
データ伝送と動作解析の両方を通して、隠蔽ビデオの時空間情報は完全なままであり、カバービデオの自然な外観は送信の隠蔽を保証する。
ステガノグラフィ領域分析の難しさを考慮し, ステガノグラフィ領域における解析のために, シークレット時空間促進(STeP)とクロスバンド差分注意(CroDA)を提案する。
STePはシークレットビデオを使用して、トレーニング中のステガノグラフィ領域の時空間的特徴抽出をガイドする。
CroDAは、クロスバンドセマンティックな違いを捉えてカバー干渉を抑制する。
実験によると、StegaVARは広く使用されているデータセット上で、優れたVARとプライバシ保護のパフォーマンスを達成する。
さらに,本フレームワークは複数のステガノグラフィーモデルに有効である。
関連論文リスト
- Privacy Beyond Pixels: Latent Anonymization for Privacy-Preserving Video Understanding [56.369026347458835]
本稿では,ビデオ基盤モデルにおける視覚的プライバシ保護の新たな定式化について紹介する。
入力ピクセルレベルの匿名化に関する現在のプライバシー保護手法では、ユーティリティビデオモデル全体を再トレーニングする必要がある。
軽量な Anonym Adapter Module (AAM) は、一般的なタスクユーティリティを維持しながら、ビデオ機能からプライベート情報を除去する。
論文 参考訳(メタデータ) (2025-11-11T18:56:27Z) - Privacy-Preserving Video Anomaly Detection: A Survey [14.867137878046536]
Video Anomaly Detection (VAD)は、オープンスペースから収集された監視ビデオのパターンを自動的に分析し、異常な事象を検知することを目的としている。
近年、研究者は様々な観点から体系的な研究を行うことにより、VADのプライバシーに関する懸念に焦点を当てている。
本稿は、P2VADの進捗状況を体系的にレビューし、その範囲を定義し、直感的な分類法を提供する最初の論文である。
論文 参考訳(メタデータ) (2024-11-21T20:29:59Z) - Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - Unsupervised Video Domain Adaptation for Action Recognition: A
Disentanglement Perspective [37.45565756522847]
我々は2つの潜在要因からドメイン間ビデオを生成することを検討する。
TranSVAEフレームワークはそのような世代をモデル化するために開発される。
UCF-HMDB、Jester、Epic-Kitchensデータセットの実験は、TranSVAEの有効性と優位性を検証する。
論文 参考訳(メタデータ) (2022-08-15T17:59:31Z) - Unsupervised Domain Adaptation for Video Transformers in Action
Recognition [76.31442702219461]
ビデオ行動認識のためのシンプルで斬新なUDA手法を提案する。
私たちのアプローチでは、ターゲットドメインをより一般化した堅牢なソースモデルを構築しています。
UDAのための2つのビデオアクションベンチマークの認識結果について報告する。
論文 参考訳(メタデータ) (2022-07-26T12:17:39Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Detection of Deepfake Videos Using Long Distance Attention [73.6659488380372]
既存のほとんどの検出方法は、問題をバニラ二項分類問題として扱う。
本稿では,偽顔と実顔の相違が非常に微妙であるため,特にきめ細かな分類問題として扱われる。
大域的な視点で空間的・時間的偽の痕跡を捉えるための2つの要素を持つ時空間モデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T08:33:32Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。