論文の概要: Privid: Practical, Privacy-Preserving Video Analytics Queries
- arxiv url: http://arxiv.org/abs/2106.12083v1
- Date: Tue, 22 Jun 2021 22:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 20:34:38.565650
- Title: Privid: Practical, Privacy-Preserving Video Analytics Queries
- Title(参考訳): Privid: 実用的なプライバシ保護ビデオアナリティクスクエリ
- Authors: Frank Cangialosi, Neil Agarwal, Venkat Arun, Junchen Jiang, Srinivas
Narayana, Anand Sarwate and Ravi Netravali
- Abstract要約: 本稿では,ビデオ分析における差分プライバシー(DP)の新たな概念として,$(rho,K,epsilon)$-event-duration Privacyを提案する。
プライビッドは,非私的システムの79~99%以内のアキュラシーを達成している。
- 参考スコア(独自算出の注目度): 6.7897713298300335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analytics on video recorded by cameras in public areas have the potential to
fuel many exciting applications, but also pose the risk of intruding on
individuals' privacy. Unfortunately, existing solutions fail to practically
resolve this tension between utility and privacy, relying on perfect detection
of all private information in each video frame--an elusive requirement. This
paper presents: (1) a new notion of differential privacy (DP) for video
analytics, $(\rho,K,\epsilon)$-event-duration privacy, which protects all
private information visible for less than a particular duration, rather than
relying on perfect detections of that information, and (2) a practical system
called Privid that enforces duration-based privacy even with the (untrusted)
analyst-provided deep neural networks that are commonplace for video analytics
today. Across a variety of videos and queries, we show that Privid achieves
accuracies within 79-99% of a non-private system.
- Abstract(参考訳): 公共の場でカメラが撮影したビデオの分析は、多くのエキサイティングなアプリケーションを動かす可能性があるが、個人のプライバシーを侵害する危険性もある。
残念ながら、既存のソリューションは、ユーティリティとプライバシの間の緊張を実質的に解決できず、各ビデオフレーム内のすべてのプライベート情報を完璧に検出している。
本稿では,(1)ビデオ解析のための新たな差分プライバシー(dp)概念である$(\rho,k,\epsilon)$-event-duration privacy(イベント-duration privacy)について述べる。
様々なビデオやクェリを通じて,Priv が非プライベートシステムの79~99%の精度で達成可能であることを示す。
関連論文リスト
- PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PPVF: An Efficient Privacy-Preserving Online Video Fetching Framework with Correlated Differential Privacy [24.407782529925615]
高品質なオンラインビデオサービスを維持しつつ、ユーザの要求のプライバシを維持するための新しいプライバシ保存ビデオフェッチフレームワークを提案する。
信頼されたエッジデバイスを使用して、ビデオのプレフェッチとキャッシュを行い、エッジキャッシュの効率を最適化しながら、ユーザの要求のプライバシを確保する。
その結果,PPVFは高いビデオキャッシング性能を維持しつつ,ユーザの要求するプライバシを効果的に保護することを示した。
論文 参考訳(メタデータ) (2024-08-27T02:03:36Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Privacy Protectability: An Information-theoretical Approach [4.14084373472438]
本稿では,ビデオストリームをどの程度保護できるかを特徴付けるために,新たなメートル法であるテクストプライバシー保護法を提案する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-25T04:06:55Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - Deep Learning Approach Protecting Privacy in Camera-Based Critical
Applications [57.93313928219855]
カメラベースシステムにおけるプライバシー保護のためのディープラーニングアプローチを提案する。
我々の手法は、アプリケーションで必要とされない直感に基づいて、正当性(視覚的に顕著な)と非正則性(非正則性)を区別する。
論文 参考訳(メタデータ) (2021-10-04T19:16:27Z) - Auditing Differentially Private Machine Learning: How Private is Private
SGD? [16.812900569416062]
我々は、差分的プライベートSGDが、最先端の分析によって保証されているものよりも、実際に優れたプライバシーを提供するかどうかを調査する。
われわれは、新しいデータ中毒攻撃を通じて、現実的なプライバシー攻撃に対応している。
論文 参考訳(メタデータ) (2020-06-13T20:00:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。