論文の概要: Privid: Practical, Privacy-Preserving Video Analytics Queries
- arxiv url: http://arxiv.org/abs/2106.12083v1
- Date: Tue, 22 Jun 2021 22:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 20:34:38.565650
- Title: Privid: Practical, Privacy-Preserving Video Analytics Queries
- Title(参考訳): Privid: 実用的なプライバシ保護ビデオアナリティクスクエリ
- Authors: Frank Cangialosi, Neil Agarwal, Venkat Arun, Junchen Jiang, Srinivas
Narayana, Anand Sarwate and Ravi Netravali
- Abstract要約: 本稿では,ビデオ分析における差分プライバシー(DP)の新たな概念として,$(rho,K,epsilon)$-event-duration Privacyを提案する。
プライビッドは,非私的システムの79~99%以内のアキュラシーを達成している。
- 参考スコア(独自算出の注目度): 6.7897713298300335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analytics on video recorded by cameras in public areas have the potential to
fuel many exciting applications, but also pose the risk of intruding on
individuals' privacy. Unfortunately, existing solutions fail to practically
resolve this tension between utility and privacy, relying on perfect detection
of all private information in each video frame--an elusive requirement. This
paper presents: (1) a new notion of differential privacy (DP) for video
analytics, $(\rho,K,\epsilon)$-event-duration privacy, which protects all
private information visible for less than a particular duration, rather than
relying on perfect detections of that information, and (2) a practical system
called Privid that enforces duration-based privacy even with the (untrusted)
analyst-provided deep neural networks that are commonplace for video analytics
today. Across a variety of videos and queries, we show that Privid achieves
accuracies within 79-99% of a non-private system.
- Abstract(参考訳): 公共の場でカメラが撮影したビデオの分析は、多くのエキサイティングなアプリケーションを動かす可能性があるが、個人のプライバシーを侵害する危険性もある。
残念ながら、既存のソリューションは、ユーティリティとプライバシの間の緊張を実質的に解決できず、各ビデオフレーム内のすべてのプライベート情報を完璧に検出している。
本稿では,(1)ビデオ解析のための新たな差分プライバシー(dp)概念である$(\rho,k,\epsilon)$-event-duration privacy(イベント-duration privacy)について述べる。
様々なビデオやクェリを通じて,Priv が非プライベートシステムの79~99%の精度で達成可能であることを示す。
関連論文リスト
- Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Privacy Protectability: An Information-theoretical Approach [4.14084373472438]
本稿では,ビデオストリームをどの程度保護できるかを特徴付けるために,新たなメートル法であるテクストプライバシー保護法を提案する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-25T04:06:55Z) - Fairly Private: Investigating The Fairness of Visual Privacy
Preservation Algorithms [1.5293427903448025]
本稿では,一般的に使用されている視覚的プライバシ保護アルゴリズムの妥当性について検討する。
PubFigデータセットの実験は、提供されたプライバシ保護がグループ間で不平等であることを明確に示している。
論文 参考訳(メタデータ) (2023-01-12T13:40:38Z) - STPrivacy: Spatio-Temporal Tubelet Sparsification and Anonymization for
Privacy-preserving Action Recognition [28.002605566359676]
両時間的視点からプライバシー保護を行うPPARパラダイムを提案し,STPrivacyフレームワークを提案する。
当社のSTPrivacyは初めて視覚変換器をPPARに適用し,映像を漏洩時管のシーケンスと見なしている。
大規模なベンチマークがないため、最も人気のある2つのアクション認識データセットの5つのプライバシ属性を注釈付けします。
論文 参考訳(メタデータ) (2023-01-08T14:07:54Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Deep Learning Approach Protecting Privacy in Camera-Based Critical
Applications [57.93313928219855]
カメラベースシステムにおけるプライバシー保護のためのディープラーニングアプローチを提案する。
我々の手法は、アプリケーションで必要とされない直感に基づいて、正当性(視覚的に顕著な)と非正則性(非正則性)を区別する。
論文 参考訳(メタデータ) (2021-10-04T19:16:27Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。