論文の概要: Privacy-Preserving Action Recognition via Motion Difference Quantization
- arxiv url: http://arxiv.org/abs/2208.02459v1
- Date: Thu, 4 Aug 2022 05:03:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:33:01.149506
- Title: Privacy-Preserving Action Recognition via Motion Difference Quantization
- Title(参考訳): 動き差量子化によるプライバシー保全行動認識
- Authors: Sudhakar Kumawat and Hajime Nagahara
- Abstract要約: 本稿では,BDQと呼ばれるシンプルかつ堅牢なプライバシ保護エンコーダを提案する。
ブラー、差分、量子化の3つのモジュールで構成されている。
3つのベンチマークデータセットの実験は、提案したエンコーダの設計が最先端のトレードオフを達成可能であることを示している。
- 参考スコア(独自算出の注目度): 22.31448780032675
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The widespread use of smart computer vision systems in our personal spaces
has led to an increased consciousness about the privacy and security risks that
these systems pose. On the one hand, we want these systems to assist in our
daily lives by understanding their surroundings, but on the other hand, we want
them to do so without capturing any sensitive information. Towards this
direction, this paper proposes a simple, yet robust privacy-preserving encoder
called BDQ for the task of privacy-preserving human action recognition that is
composed of three modules: Blur, Difference, and Quantization. First, the input
scene is passed to the Blur module to smoothen the edges. This is followed by
the Difference module to apply a pixel-wise intensity subtraction between
consecutive frames to highlight motion features and suppress obvious high-level
privacy attributes. Finally, the Quantization module is applied to the motion
difference frames to remove the low-level privacy attributes. The BDQ
parameters are optimized in an end-to-end fashion via adversarial training such
that it learns to allow action recognition attributes while inhibiting privacy
attributes. Our experiments on three benchmark datasets show that the proposed
encoder design can achieve state-of-the-art trade-off when compared with
previous works. Furthermore, we show that the trade-off achieved is at par with
the DVS sensor-based event cameras. Code available at:
https://github.com/suakaw/BDQ_PrivacyAR.
- Abstract(参考訳): 私たちのパーソナルスペースでスマートコンピュータビジョンシステムが広く使われるようになると、これらのシステムが持つプライバシーとセキュリティのリスクに対する意識が高まりました。
一方、これらのシステムには、周囲を理解して日常生活を支援することが求められていますが、一方では、機密情報を収集することなく、それを行うように求めています。
そこで本研究では,Blur, Different, Quantizationの3つのモジュールから構成されるプライバシ保護人間の行動認識タスクに対して,BDQと呼ばれるシンプルかつ堅牢なプライバシ保存エンコーダを提案する。
まず、入力シーンをぼかしモジュールに渡してエッジを滑らかにする。
続いて差分モジュールが、連続フレーム間でピクセル単位でのインテンシティの減算を適用して、動きの特徴を強調し、明らかな高レベルのプライバシー属性を抑制する。
最後に、量子化モジュールをモーション差分フレームに適用し、低レベルのプライバシ属性を削除する。
BDQパラメータは、プライバシ属性を抑えながらアクション認識属性を許容するように、敵対的なトレーニングを通じてエンドツーエンドで最適化される。
3つのベンチマークデータセットを用いた実験により,提案するエンコーダ設計は,従来手法と比較して最先端のトレードオフを実現できることが示された。
さらに,DVSセンサを用いたイベントカメラと同等のトレードオフが達成された。
コードはhttps://github.com/suakaw/bdq_privacyar。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition [28.002605566359676]
両時間的視点からプライバシー保護を行うPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,映像を漏洩時管のシーケンスと見なしている。
大規模なベンチマークがないため、最も人気のある2つのアクション認識データセットの5つのプライバシ属性を注釈付けします。
論文 参考訳(メタデータ) (2023-01-08T14:07:54Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Tempered Sigmoid Activations for Deep Learning with Differential Privacy [33.574715000662316]
活性化関数の選択は、プライバシー保護の深層学習の感度を束縛することの中心であることを示す。
我々は,MNIST,FashionMNIST,CIFAR10に対して,学習手順の基礎を変更することなく,新たな最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-07-28T13:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。