論文の概要: Privacy Beyond Pixels: Latent Anonymization for Privacy-Preserving Video Understanding
- arxiv url: http://arxiv.org/abs/2511.08666v1
- Date: Thu, 13 Nov 2025 01:01:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.186656
- Title: Privacy Beyond Pixels: Latent Anonymization for Privacy-Preserving Video Understanding
- Title(参考訳): ピクセル以外のプライバシー: プライバシー保護ビデオ理解のための潜在匿名化
- Authors: Joseph Fioresi, Ishan Rajendrakumar Dave, Mubarak Shah,
- Abstract要約: 本稿では,ビデオ基盤モデルにおける視覚的プライバシ保護の新たな定式化について紹介する。
入力ピクセルレベルの匿名化に関する現在のプライバシー保護手法では、ユーティリティビデオモデル全体を再トレーニングする必要がある。
軽量な Anonym Adapter Module (AAM) は、一般的なタスクユーティリティを維持しながら、ビデオ機能からプライベート情報を除去する。
- 参考スコア(独自算出の注目度): 56.369026347458835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel formulation of visual privacy preservation for video foundation models that operates entirely in the latent space. While spatio-temporal features learned by foundation models have deepened general understanding of video content, sharing or storing these extracted visual features for downstream tasks inadvertently reveals sensitive personal information like skin color, gender, or clothing. Current privacy preservation methods focus on input-pixel-level anonymization, which requires retraining the entire utility video model and results in task-specific anonymization, making them unsuitable for recent video foundational models. To address these challenges, we introduce a lightweight Anonymizing Adapter Module (AAM) that removes private information from video features while retaining general task utility. AAM can be applied in a plug-and-play fashion to frozen video encoders, minimizing the computational burden of finetuning and re-extracting features. Our framework employs three newly designed training objectives: (1) a clip-level self-supervised privacy objective to reduce mutual information between static clips, (2) a co-training objective to retain utility across seen tasks, and (3) a latent consistency loss for generalization on unseen tasks. Our extensive evaluations demonstrate a significant 35% reduction in privacy leakage while maintaining near-baseline utility performance across various downstream tasks: Action Recognition (Kinetics400, UCF101, HMDB51), Temporal Action Detection (THUMOS14), and Anomaly Detection (UCF-Crime). We also provide an analysis on anonymization for sensitive temporal attribute recognition. Additionally, we propose new protocols for assessing gender bias in action recognition models, showing that our method effectively mitigates such biases and promotes more equitable video understanding.
- Abstract(参考訳): 本稿では,ビデオ基盤モデルにおける視覚的プライバシ保護の新たな定式化について紹介する。
ファンデーションモデルによって学習された時空間的特徴は、ビデオコンテンツに対する一般的な理解を深めてきたが、抽出した視覚的特徴を下流のタスクのために共有したり保存したりすることは、皮膚の色、性別、衣服などの機密性の高い個人情報を不注意に明らかにする。
現在のプライバシ保護手法は、ユーティリティビデオモデル全体をトレーニングし、タスク固有の匿名化をもたらす入力ピクセルレベルの匿名化に重点を置いているため、最近のビデオ基盤モデルには適さない。
これらの課題に対処するために、一般的なタスクユーティリティを維持しながら、ビデオ機能からプライベート情報を除去する軽量な匿名化アダプタモジュール(AAM)を導入する。
AAMはプラグイン・アンド・プレイ方式で冷凍ビデオエンコーダに適用でき、微調整と再抽出の計算負担を最小限に抑えることができる。
本フレームワークでは,(1)静的クリップ間の相互情報を低減するためのクリップレベルの自己監督型プライバシ目的,(2)目に見えるタスク間のユーティリティを維持するための協調学習目標,(3)目に見えないタスクの一般化のための遅延一貫性損失の3つの新たなトレーニング目標を用いている。
動作認識(Kinetics400, UCF101, HMDB51), 時間的行動検出(THUMOS14), 異常検出(UCF-Crime)など,様々なダウンストリームタスクにおいて, ほぼベースラインのユーティリティ性能を維持しながら, プライバシー漏洩の顕著な35%低減を実証した。
また,時間的属性認識のための匿名化分析も行った。
さらに,行動認識モデルにおける性別バイアスを評価するための新しいプロトコルを提案し,このようなバイアスを効果的に軽減し,より公平な映像理解を促進することを示す。
関連論文リスト
- Evaluation of Vision-LLMs in Surveillance Video [8.750453732584491]
本稿では視覚言語モデル(VLM)の空間的推論について検討する。
これは、スパース2Dビデオからダイナミックな3Dシーンを解釈する、具体的認識課題に対処する。
UCF-Crime と RWF-2000 の4つのオープンモデルについて,プロンプトおよびプライバシ保護条件下で評価した。
論文 参考訳(メタデータ) (2025-10-27T10:27:02Z) - Temporal Unlearnable Examples: Preventing Personal Video Data from Unauthorized Exploitation by Object Tracking [90.81846867441993]
本稿では,ディープトラッカーによる個人ビデオデータの不正利用を防止するための最初の研究について述べる。
時間的非学習可能な例(TUE)を生成するための新しい生成フレームワークを提案する。
提案手法は,VOTモデル,データセット,時間的マッチングタスク間の転送性が強いビデオデータプライバシ保護において,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-10T07:11:33Z) - PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - Low-Latency Video Anonymization for Crowd Anomaly Detection: Privacy vs. Performance [5.78828936452823]
本研究では,プライバシ保護とリアルタイムビデオ異常検出アプリケーションのための従来の匿名化ソリューションを再検討する。
本稿では,プライバシー保護を強化するために動的調整を施したVAD(LA3D)の軽量適応匿名化を提案する。
実験により, LA3Dは, VADの有効性を著しく低下させることなく, プライバシー匿名化能力を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2024-10-24T13:22:33Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。