論文の概要: Privacy Protectability: An Information-theoretical Approach
- arxiv url: http://arxiv.org/abs/2305.15697v1
- Date: Thu, 25 May 2023 04:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:32:38.212942
- Title: Privacy Protectability: An Information-theoretical Approach
- Title(参考訳): プライバシー保護性:情報理論的アプローチ
- Authors: Siping Shi and Bihai Zhang and Dan Wang
- Abstract要約: 本稿では,ビデオストリームをどの程度保護できるかを特徴付けるために,新たなメートル法であるテクストプライバシー保護法を提案する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 4.14084373472438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, inference privacy has attracted increasing attention. The inference
privacy concern arises most notably in the widely deployed edge-cloud video
analytics systems, where the cloud needs the videos captured from the edge. The
video data can contain sensitive information and subject to attack when they
are transmitted to the cloud for inference. Many privacy protection schemes
have been proposed. Yet, the performance of a scheme needs to be determined by
experiments or inferred by analyzing the specific case. In this paper, we
propose a new metric, \textit{privacy protectability}, to characterize to what
degree a video stream can be protected given a certain video analytics task.
Such a metric has strong operational meaning. For example, low protectability
means that it may be necessary to set up an overall secure environment. We can
also evaluate a privacy protection scheme, e.g., assume it obfuscates the video
data, what level of protection this scheme has achieved after obfuscation. Our
definition of privacy protectability is rooted in information theory and we
develop efficient algorithms to estimate the metric. We use experiments on real
data to validate that our metric is consistent with empirical measurements on
how well a video stream can be protected for a video analytics task.
- Abstract(参考訳): 近年,推論プライバシが注目されている。
クラウドがエッジから撮影したビデオを必要とするエッジクラウドビデオ分析システムにおいて、最も注目すべきは推論のプライバシに関する懸念だ。
ビデオデータは、機密情報を含み、推測のためにクラウドに送信された際に攻撃を受けることができる。
多くのプライバシー保護制度が提案されている。
しかし、スキームの性能は実験によって決定するか、特定のケースを分析して推測する必要がある。
本稿では,あるビデオ分析タスクにおいて,ビデオストリームをどの程度保護できるかを特徴付けるための新しい指標である「textit{privacy protectability}」を提案する。
そのような計量は強い操作的意味を持つ。
例えば、低い保護性は、全体的な安全な環境を構築する必要があることを意味する。
プライバシー保護スキームの評価も可能である。例えば、ビデオデータが難読化されると仮定し、このスキームが難解化後に達成した保護レベルを評価する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
実データを用いた実験によって、ビデオストリームがビデオ分析タスクに対してどの程度保護できるか、経験的測定値と一致しているかを確認します。
関連論文リスト
- Visual Privacy Protection Based on Type-I Adversarial Attack [89.37827033872847]
本稿では,データの視覚的プライバシを保護するために,敵攻撃に基づく手法を提案する。
具体的には、DNNによって正確に予測されながら、プライベートデータの視覚情報を暗号化する。
顔認識タスクにおける実験結果から,提案手法は顔画像の視覚情報を深く隠蔽できることが示された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Robust Privacy-Preserving Motion Detection and Object Tracking in
Encrypted Streaming Video [39.453548972987015]
本稿では,暗号化された監視ビデオのビットストリームに対して,効率的かつ堅牢なプライバシー保護動作検出と複数物体追跡手法を提案する。
提案手法は, 暗号化・圧縮された領域における既存の作業と比較して, 最高の検出・追跡性能を実現する。
我々の手法は、カメラの動き/ジッタ、動的背景、影など、様々な課題を伴う複雑な監視シナリオで効果的に利用することができる。
論文 参考訳(メタデータ) (2021-08-30T11:58:19Z) - Privid: Practical, Privacy-Preserving Video Analytics Queries [6.7897713298300335]
本稿では,ビデオ分析における差分プライバシー(DP)の新たな概念として,$(rho,K,epsilon)$-event-duration Privacyを提案する。
プライビッドは,非私的システムの79~99%以内のアキュラシーを達成している。
論文 参考訳(メタデータ) (2021-06-22T22:25:08Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models [6.902994369582068]
エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
論文 参考訳(メタデータ) (2019-12-31T15:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。