論文の概要: Contextualize differential privacy in image database: a lightweight
image differential privacy approach based on principle component analysis
inverse
- arxiv url: http://arxiv.org/abs/2202.08309v1
- Date: Wed, 16 Feb 2022 19:36:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 16:38:44.647302
- Title: Contextualize differential privacy in image database: a lightweight
image differential privacy approach based on principle component analysis
inverse
- Title(参考訳): 画像データベースにおける差分プライバシーの文脈化--原理成分分析の逆に基づく軽量画像差分プライバシーアプローチ
- Authors: Shiliang Zhang, Xuehui Ma, Hui Cao, Tengyuan Zhao, Yajie Yu, Zhuzhu
Wang
- Abstract要約: 差分プライバシー(DP)は、データベース内のプライバシーに敏感な情報を保存するためのデファクトスタンダードである。
DPの統合によるプライバシ・精度のトレードオフは、差分プライベート画像データベースの文脈では不十分である。
本研究の目的は、概念微分プライバシーと画像の統合を明示的かつ直感的に示すことによって、画像中のDPを文脈化することである。
- 参考スコア(独自算出の注目度): 35.06571163816982
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Differential privacy (DP) has been the de-facto standard to preserve
privacy-sensitive information in database. Nevertheless, there lacks a clear
and convincing contextualization of DP in image database, where individual
images' indistinguishable contribution to a certain analysis can be achieved
and observed when DP is exerted. As a result, the privacy-accuracy trade-off
due to integrating DP is insufficiently demonstrated in the context of
differentially-private image database. This work aims at contextualizing DP in
image database by an explicit and intuitive demonstration of integrating
conceptional differential privacy with images. To this end, we design a
lightweight approach dedicating to privatizing image database as a whole and
preserving the statistical semantics of the image database to an adjustable
level, while making individual images' contribution to such statistics
indistinguishable. The designed approach leverages principle component analysis
(PCA) to reduce the raw image with large amount of attributes to a lower
dimensional space whereby DP is performed, so as to decrease the DP load of
calculating sensitivity attribute-by-attribute. The DP-exerted image data,
which is not visible in its privatized format, is visualized through PCA
inverse such that both a human and machine inspector can evaluate the
privatization and quantify the privacy-accuracy trade-off in an analysis on the
privatized image database. Using the devised approach, we demonstrate the
contextualization of DP in images by two use cases based on deep learning
models, where we show the indistinguishability of individual images induced by
DP and the privatized images' retention of statistical semantics in deep
learning tasks, which is elaborated by quantitative analyses on the
privacy-accuracy trade-off under different privatization settings.
- Abstract(参考訳): 差分プライバシー(DP)は、データベース内のプライバシーに敏感な情報を保存するためのデファクトスタンダードである。
とはいえ、画像データベースにはDPの明確で説得力のある文脈化が欠如しており、個々の画像の特定の解析への不明瞭な貢献が達成され、DPが実行されたときに観察される。
その結果、差分プライベート画像データベースの文脈において、dpの統合によるプライバシー不正確なトレードオフが不十分に実証される。
本研究は,画像データベースにおけるdpのコンテキスト化を目的とし,概念的微分プライバシーと画像の統合を明示的かつ直感的に示す。
この目的のために,画像データベース全体を民営化するための軽量なアプローチをデザインし,画像データベースの統計的意味を調整可能なレベルに保つとともに,その統計に対する個々の画像の寄与度を識別不能にする。
設計手法では,dpを行う低次元空間に対して,多量の属性を持つ生画像を低減し,感度属性の計算のdp負荷を低減するために,原理成分分析(pca)を利用する。
民営化形式では見えないDP抽出画像データをPCA逆転により可視化し、民営化された画像データベースの分析において、人間と機械検査者が民営化を評価し、プライバシ・正確性トレードオフを定量化する。
そこで本研究では,ディープラーニングモデルに基づく2つのユースケースを用いて,画像内のdpの文脈化を実証し,dpによって誘発される個々の画像の識別不能性と,異なる民営化条件下でのプライバシ正確性トレードオフの定量的解析によって精査された深層学習課題における統計的意味論の民営化画像の保持を示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - DP-Image: Differential Privacy for Image Data in Feature Space [23.593790091283225]
本稿では,画像中のユーザの個人情報を保護できるDPイメージと呼ばれる,画像認識型差分プライバシーの概念を導入する。
提案手法は, 画像に対して優れたDP保護を提供し, 顔への歪みを制御可能であることを示す。
論文 参考訳(メタデータ) (2021-03-12T04:02:23Z) - Differentially Private Representation for NLP: Formal Guarantee and An
Empirical Study on Privacy and Fairness [38.90014773292902]
深層モデルで学習した隠れ表現が、入力のプライベート情報を符号化できることが示されている。
テキストから抽出した表現のプライバシを保護するために,DPNR(differially Private Neural Representation)を提案する。
論文 参考訳(メタデータ) (2020-10-03T05:58:32Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。