論文の概要: Privacy Protectability: An Information-theoretical Approach
- arxiv url: http://arxiv.org/abs/2305.15697v1
- Date: Thu, 25 May 2023 04:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:32:38.212942
- Title: Privacy Protectability: An Information-theoretical Approach
- Title(参考訳): プライバシー保護性:情報理論的アプローチ
- Authors: Siping Shi and Bihai Zhang and Dan Wang
- Abstract要約: 本稿では,ビデオストリームをどの程度保護できるかを特徴付けるために,新たなメートル法であるテクストプライバシー保護法を提案する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 4.14084373472438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, inference privacy has attracted increasing attention. The inference
privacy concern arises most notably in the widely deployed edge-cloud video
analytics systems, where the cloud needs the videos captured from the edge. The
video data can contain sensitive information and subject to attack when they
are transmitted to the cloud for inference. Many privacy protection schemes
have been proposed. Yet, the performance of a scheme needs to be determined by
experiments or inferred by analyzing the specific case. In this paper, we
propose a new metric, \textit{privacy protectability}, to characterize to what
degree a video stream can be protected given a certain video analytics task.
Such a metric has strong operational meaning. For example, low protectability
means that it may be necessary to set up an overall secure environment. We can
also evaluate a privacy protection scheme, e.g., assume it obfuscates the video
data, what level of protection this scheme has achieved after obfuscation. Our
definition of privacy protectability is rooted in information theory and we
develop efficient algorithms to estimate the metric. We use experiments on real
data to validate that our metric is consistent with empirical measurements on
how well a video stream can be protected for a video analytics task.
- Abstract(参考訳): 近年,推論プライバシが注目されている。
クラウドがエッジから撮影したビデオを必要とするエッジクラウドビデオ分析システムにおいて、最も注目すべきは推論のプライバシに関する懸念だ。
ビデオデータは、機密情報を含み、推測のためにクラウドに送信された際に攻撃を受けることができる。
多くのプライバシー保護制度が提案されている。
しかし、スキームの性能は実験によって決定するか、特定のケースを分析して推測する必要がある。
本稿では,あるビデオ分析タスクにおいて,ビデオストリームをどの程度保護できるかを特徴付けるための新しい指標である「textit{privacy protectability}」を提案する。
そのような計量は強い操作的意味を持つ。
例えば、低い保護性は、全体的な安全な環境を構築する必要があることを意味する。
プライバシー保護スキームの評価も可能である。例えば、ビデオデータが難読化されると仮定し、このスキームが難解化後に達成した保護レベルを評価する。
プライバシ保護性の定義は情報理論に根ざし,メトリックを推定する効率的なアルゴリズムを開発した。
実データを用いた実験によって、ビデオストリームがビデオ分析タスクに対してどの程度保護できるか、経験的測定値と一致しているかを確認します。
関連論文リスト
- PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Robust Privacy-Preserving Motion Detection and Object Tracking in
Encrypted Streaming Video [39.453548972987015]
本稿では,暗号化された監視ビデオのビットストリームに対して,効率的かつ堅牢なプライバシー保護動作検出と複数物体追跡手法を提案する。
提案手法は, 暗号化・圧縮された領域における既存の作業と比較して, 最高の検出・追跡性能を実現する。
我々の手法は、カメラの動き/ジッタ、動的背景、影など、様々な課題を伴う複雑な監視シナリオで効果的に利用することができる。
論文 参考訳(メタデータ) (2021-08-30T11:58:19Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models [6.902994369582068]
エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
論文 参考訳(メタデータ) (2019-12-31T15:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。