論文の概要: STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition
- arxiv url: http://arxiv.org/abs/2301.03046v1
- Date: Sun, 8 Jan 2023 14:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 17:10:06.910324
- Title: STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition
- Title(参考訳): STPrivacy:プライバシー保護行動認識のための時空間スペーシングと匿名化
- Authors: Ming Li, Jun Liu, Hehe Fan, Jia-Wei Liu, Jiahe Li, Mike Zheng Shou,
Jussi Keppo
- Abstract要約: 両時間的視点からプライバシー保護を行うPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,映像を漏洩時管のシーケンスと見なしている。
大規模なベンチマークがないため、最も人気のある2つのアクション認識データセットの5つのプライバシ属性を注釈付けします。
- 参考スコア(独自算出の注目度): 28.002605566359676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently privacy-preserving action recognition (PPAR) has been becoming an
appealing video understanding problem. Nevertheless, existing works focus on
the frame-level (spatial) privacy preservation, ignoring the privacy leakage
from a whole video and destroying the temporal continuity of actions. In this
paper, we present a novel PPAR paradigm, i.e., performing privacy preservation
from both spatial and temporal perspectives, and propose a STPrivacy framework.
For the first time, our STPrivacy applies vision Transformers to PPAR and
regards a video as a sequence of spatio-temporal tubelets, showing outstanding
advantages over previous convolutional methods. Specifically, our STPrivacy
adaptively treats privacy-containing tubelets in two different manners. The
tubelets irrelevant to actions are directly abandoned, i.e., sparsification,
and not published for subsequent tasks. In contrast, those highly involved in
actions are anonymized, i.e., anonymization, to remove private information.
These two transformation mechanisms are complementary and simultaneously
optimized in our unified framework. Because there is no large-scale benchmarks,
we annotate five privacy attributes for two of the most popular action
recognition datasets, i.e., HMDB51 and UCF101, and conduct extensive
experiments on them. Moreover, to verify the generalization ability of our
STPrivacy, we further introduce a privacy-preserving facial expression
recognition task and conduct experiments on a large-scale video facial
attributes dataset, i.e., Celeb-VHQ. The thorough comparisons and visualization
analysis demonstrate our significant superiority over existing works. The
appendix contains more details and visualizations.
- Abstract(参考訳): 近年,ppar(privacy-preserving action recognition)がビデオ理解問題として注目されている。
それでも、既存の作業はフレームレベルの(空間的な)プライバシー保護に焦点を当てており、ビデオ全体のプライバシー漏洩を無視し、アクションの時間的連続性を破壊する。
本稿では,空間的,時間的両面からプライバシ保護を行う新しいPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,ビデオを時空間管のシーケンスとみなし,従来の畳み込み法よりも優れた優位性を示した。
具体的には、STPrivacyはプライバシーを含むチューブレットを2つの異なる方法で適応的に扱う。
アクションに無関係なチューブレットは直接放棄され、すなわちスパシフィケーションが行われ、その後のタスクには公開されない。
対照的に、行動に深く関わっている人々は匿名化され、匿名化され、個人情報を削除する。
これら2つのトランスフォーメーションメカニズムは、当社の統一フレームワークで補完的かつ同時に最適化されています。
大規模なベンチマークがないため、最も人気のあるアクション認識データセットであるhmdb51とutf101の5つのプライバシ属性に注釈を付け、広範な実験を行います。
さらに,STPrivacyの一般化能力を検証するために,プライバシー保護型顔認識タスクを導入し,大規模ビデオ顔属性データセット,すなわちCeleb-VHQで実験を行う。
徹底的な比較と可視化分析は、既存の作品よりも大きな優位性を示している。
付録には詳細と視覚化が含まれている。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms [1.5293427903448025]
本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
論文 参考訳(メタデータ) (2023-01-12T13:40:38Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。