論文の概要: Video-DPRP: A Differentially Private Approach for Visual Privacy-Preserving Video Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2503.02132v1
- Date: Mon, 03 Mar 2025 23:43:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:05.829433
- Title: Video-DPRP: A Differentially Private Approach for Visual Privacy-Preserving Video Human Activity Recognition
- Title(参考訳): ビデオDPRP:視覚的プライバシー保護のための個人的アプローチ
- Authors: Allassan Tchangmena A Nken, Susan Mckeever, Peter Corcoran, Ihsan Ullah,
- Abstract要約: ビデオHARにおけるプライバシー保護を保証する2つの主要なアプローチは、差分プライバシー(DP)と視覚的プライバシーである。
本稿では、HARのためのプライバシー保護ビデオ再構成のためのビデオサンプルワイド微分ランダム投影フレームワークであるVideo-DPRPを紹介する。
我々は,ビデオDPRPのアクティビティ認識性能と従来のDP手法,およびSOTA(State-of-the-art)ビジュアルプライバシ保存技術を比較した。
- 参考スコア(独自算出の注目度): 1.90946053920849
- License:
- Abstract: Considerable effort has been made in privacy-preserving video human activity recognition (HAR). Two primary approaches to ensure privacy preservation in Video HAR are differential privacy (DP) and visual privacy. Techniques enforcing DP during training provide strong theoretical privacy guarantees but offer limited capabilities for visual privacy assessment. Conversely methods, such as low-resolution transformations, data obfuscation and adversarial networks, emphasize visual privacy but lack clear theoretical privacy assurances. In this work, we focus on two main objectives: (1) leveraging DP properties to develop a model-free approach for visual privacy in videos and (2) evaluating our proposed technique using both differential privacy and visual privacy assessments on HAR tasks. To achieve goal (1), we introduce Video-DPRP: a Video-sample-wise Differentially Private Random Projection framework for privacy-preserved video reconstruction for HAR. By using random projections, noise matrices and right singular vectors derived from the singular value decomposition of videos, Video-DPRP reconstructs DP videos using privacy parameters ($\epsilon,\delta$) while enabling visual privacy assessment. For goal (2), using UCF101 and HMDB51 datasets, we compare Video-DPRP's performance on activity recognition with traditional DP methods, and state-of-the-art (SOTA) visual privacy-preserving techniques. Additionally, we assess its effectiveness in preserving privacy-related attributes such as facial features, gender, and skin color, using the PA-HMDB and VISPR datasets. Video-DPRP combines privacy-preservation from both a DP and visual privacy perspective unlike SOTA methods that typically address only one of these aspects.
- Abstract(参考訳): プライバシー保護ビデオヒューマンアクティビティ認識(HAR)において、考慮すべき努力がなされている。
ビデオHARにおけるプライバシー保護を保証する2つの主要なアプローチは、差分プライバシー(DP)と視覚的プライバシーである。
訓練中にDPを強制する技術は、強力な理論上のプライバシー保証を提供するが、視覚的プライバシー評価には限界がある。
逆に、低解像度変換、データ難読化、敵ネットワークといった手法は、視覚的プライバシーを強調するが、明確な理論的プライバシー保証は欠如している。
本研究では,1)ビデオにおける視覚的プライバシのためのモデルフリーアプローチを開発するためにDPプロパティを活用すること,2)HARタスクにおける差分プライバシーと視覚的プライバシ評価の両方を用いて提案手法を評価すること,の2つの目的に焦点を当てる。
目標(1)を達成するために,HARのためのプライバシー保護ビデオ再構成のためのビデオサンプルワイド差分型ランダムプロジェクションフレームワークであるVideo-DPRPを紹介する。
ビデオの特異値分解から導かれるランダムな投影、ノイズ行列、右特異ベクトルを用いて、ビデオDPRPは、プライバシーパラメータ(\epsilon,\delta$)を用いてDPビデオを再構成し、視覚的プライバシー評価を可能にする。
UCF101 と HMDB51 のデータセットを用いて,従来の DP 手法や最新技術 (SOTA) による視覚的プライバシー保護技術との比較を行った。
さらに、PA-HMDBとVISPRデータセットを用いて、顔の特徴、性別、肌の色などのプライバシー関連属性を保存することの有効性を評価する。
ビデオDPRPは、DPと視覚的プライバシの観点からのプライバシ保護を組み合わせる。
関連論文リスト
- PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Differentially Private Video Activity Recognition [79.36113764129092]
ビデオレベルの差分プライバシーをクリップベース分類モデルにより強化する新しいフレームワークであるMulti-Clip DP-SGDを提案する。
提案手法は,UDF-101上でのエプシロン=5のプライバシー予算で81%の精度を達成し,DP-SGDの直接適用に比べて76%改善した。
論文 参考訳(メタデータ) (2023-06-27T18:47:09Z) - Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms [1.5293427903448025]
本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
論文 参考訳(メタデータ) (2023-01-12T13:40:38Z) - STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition [28.002605566359676]
両時間的視点からプライバシー保護を行うPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,映像を漏洩時管のシーケンスと見なしている。
大規模なベンチマークがないため、最も人気のある2つのアクション認識データセットの5つのプライバシ属性を注釈付けします。
論文 参考訳(メタデータ) (2023-01-08T14:07:54Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。