論文の概要: SPAct: Self-supervised Privacy Preservation for Action Recognition
- arxiv url: http://arxiv.org/abs/2203.15205v1
- Date: Tue, 29 Mar 2022 02:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 13:31:55.888355
- Title: SPAct: Self-supervised Privacy Preservation for Action Recognition
- Title(参考訳): spact: アクション認識のための自己監視型プライバシー保護
- Authors: Ishan Rajendrakumar Dave, Chen Chen, Mubarak Shah
- Abstract要約: アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 73.79886509500409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual private information leakage is an emerging key issue for the fast
growing applications of video understanding like activity recognition. Existing
approaches for mitigating privacy leakage in action recognition require privacy
labels along with the action labels from the video dataset. However, annotating
frames of video dataset for privacy labels is not feasible. Recent developments
of self-supervised learning (SSL) have unleashed the untapped potential of the
unlabeled data. For the first time, we present a novel training framework which
removes privacy information from input video in a self-supervised manner
without requiring privacy labels. Our training framework consists of three main
components: anonymization function, self-supervised privacy removal branch, and
action recognition branch. We train our framework using a minimax optimization
strategy to minimize the action recognition cost function and maximize the
privacy cost function through a contrastive self-supervised loss. Employing
existing protocols of known-action and privacy attributes, our framework
achieves a competitive action-privacy trade-off to the existing
state-of-the-art supervised methods. In addition, we introduce a new protocol
to evaluate the generalization of learned the anonymization function to
novel-action and privacy attributes and show that our self-supervised framework
outperforms existing supervised methods. Code available at:
https://github.com/DAVEISHAN/SPAct
- Abstract(参考訳): 視覚的プライベート情報漏洩は、アクティビティ認識のようなビデオ理解の急速に成長するアプリケーションにとって、新たな重要な問題である。
アクション認識におけるプライバシー漏洩を軽減する既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
しかし、プライバシーラベルのためのビデオデータセットのアノテートフレームは実現不可能である。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を公開した。
本稿では,プライバシラベルを必要とせず,自己監視方式で入力ビデオからプライバシ情報を削除できる新たなトレーニングフレームワークを提案する。
トレーニングフレームワークは,匿名化機能,自己監督型プライバシ削除ブランチ,行動認識ブランチの3つの主要コンポーネントから構成される。
我々は,最小限の最適化戦略を用いて,行動認識コスト関数の最小化と,対照的な自己管理的損失によるプライバシコスト関数の最大化を図る。
我々のフレームワークは、既知のアクションとプライバシ属性の既存のプロトコルを利用することで、既存の最先端管理手法と競合するアクションプライバシのトレードオフを実現する。
さらに,学習した匿名化関数を新規行動属性やプライバシ属性に一般化して評価するための新しいプロトコルを導入し,我々の自己管理フレームワークが既存の教師付き手法より優れていることを示す。
コード提供: https://github.com/daveishan/spact
関連論文リスト
- Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition [28.002605566359676]
両時間的視点からプライバシー保護を行うPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,映像を漏洩時管のシーケンスと見なしている。
大規模なベンチマークがないため、最も人気のある2つのアクション認識データセットの5つのプライバシ属性を注釈付けします。
論文 参考訳(メタデータ) (2023-01-08T14:07:54Z) - Privacy-Preserving Action Recognition via Motion Difference Quantization [22.31448780032675]
本稿では,BDQと呼ばれるシンプルかつ堅牢なプライバシ保護エンコーダを提案する。
ブラー、差分、量子化の3つのモジュールで構成されている。
3つのベンチマークデータセットの実験は、提案したエンコーダの設計が最先端のトレードオフを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-04T05:03:27Z) - Learnable Privacy-Preserving Anonymization for Pedestrian Images [27.178354411900127]
本稿では,歩行者画像における新たなプライバシー保護匿名化問題について検討する。
認証されたモデルに対する個人識別情報(PII)を保存し、PIIが第三者によって認識されないようにする。
本稿では,全体匿名画像の可逆的生成が可能な共同学習可逆匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T07:04:16Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Privacy-Preserving Video Classification with Convolutional Neural
Networks [8.51142156817993]
本稿では,畳み込みニューラルネットワークを用いた単一フレーム方式のビデオ分類のプライバシ保護実装を提案する。
個人の感情認識への応用として提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-06T05:05:31Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。