論文の概要: DP-Image: Differential Privacy for Image Data in Feature Space
- arxiv url: http://arxiv.org/abs/2103.07073v2
- Date: Tue, 20 Jun 2023 06:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 06:44:13.436680
- Title: DP-Image: Differential Privacy for Image Data in Feature Space
- Title(参考訳): DP画像:特徴空間における画像データの差分プライバシー
- Authors: Hanyu Xue, Bo Liu, Ming Ding, Tianqing Zhu, Dayong Ye, Li Song, Wanlei
Zhou
- Abstract要約: 本稿では,画像中のユーザの個人情報を保護できるDPイメージと呼ばれる,画像認識型差分プライバシーの概念を導入する。
提案手法は, 画像に対して優れたDP保護を提供し, 顔への歪みを制御可能であることを示す。
- 参考スコア(独自算出の注目度): 23.593790091283225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The excessive use of images in social networks, government databases, and
industrial applications has posed great privacy risks and raised serious
concerns from the public. Even though differential privacy (DP) is a widely
accepted criterion that can provide a provable privacy guarantee, the
application of DP on unstructured data such as images is not trivial due to the
lack of a clear qualification on the meaningful difference between any two
images. In this paper, for the first time, we introduce a novel notion of
image-aware differential privacy, referred to as DP-image, that can protect
user's personal information in images, from both human and AI adversaries. The
DP-Image definition is formulated as an extended version of traditional
differential privacy, considering the distance measurements between feature
space vectors of images. Then we propose a mechanism to achieve DP-Image by
adding noise to an image feature vector. Finally, we conduct experiments with a
case study on face image privacy. Our results show that the proposed DP-Image
method provides excellent DP protection on images, with a controllable
distortion to faces.
- Abstract(参考訳): ソーシャルネットワーク、政府データベース、産業アプリケーションにおける画像の過剰使用は、大きなプライバシーリスクをもたらし、国民からの深刻な懸念を引き起こした。
差分プライバシー(DP)は、証明可能なプライバシー保証を提供するための広く受け入れられている基準であるが、画像のような非構造化データへのDPの適用は、いずれかの2つの画像間の有意義な差異に関する明確な資格が欠如しているため、容易ではない。
本稿では,画像中のユーザの個人情報を人間とAIの双方の敵から保護する,DP-imageと呼ばれる新たな画像認識型差分プライバシーの概念を初めて紹介する。
dp画像の定義は、画像の特徴空間ベクトル間の距離測定を考慮して、従来の微分プライバシーの拡張版として定式化されている。
次に,画像特徴ベクトルに雑音を加えることでDP画像を実現する機構を提案する。
最後に,顔画像プライバシに関するケーススタディを用いて実験を行う。
提案手法は, 画像に対して優れたDP保護を提供し, 顔への歪みを制御可能であることを示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Personalized DP-SGD using Sampling Mechanisms [5.50042037663784]
Phi$,$Delta$)- Personalized Differential Privacy (($Phi$,$Delta$)- PDP。
提案アルゴリズムは,複数ラウンドのパーソナライズされたサンプリング機構を使用し,DP-SGDイテレーションに組み込む。
実データを用いた実験の結果,提案アルゴリズムはDP-SGDとDP-SGDと既存のPDP機構の単純な組み合わせよりも優れていた。
論文 参考訳(メタデータ) (2023-05-24T13:56:57Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Contextualize differential privacy in image database: a lightweight
image differential privacy approach based on principle component analysis
inverse [35.06571163816982]
差分プライバシー(DP)は、データベース内のプライバシーに敏感な情報を保存するためのデファクトスタンダードである。
DPの統合によるプライバシ・精度のトレードオフは、差分プライベート画像データベースの文脈では不十分である。
本研究の目的は、概念微分プライバシーと画像の統合を明示的かつ直感的に示すことによって、画像中のDPを文脈化することである。
論文 参考訳(メタデータ) (2022-02-16T19:36:49Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Differentially Private Imaging via Latent Space Manipulation [5.446368808660037]
本稿では,無条件に訓練された生成モデルの潜在空間を操作することにより,画像の難読化に新たなアプローチを提案する。
これは、イメージプライバシに対する最初のアプローチで、$varepsilon$-differential privacy emphを満たす。
論文 参考訳(メタデータ) (2021-03-08T17:32:08Z) - Toward Privacy and Utility Preserving Image Representation [26.768476643200664]
本稿では,プライバシ保護のための画像表現の新規な課題について検討する。
本稿では,AIA(Adversarial Image Anonymizer)と呼ばれる原理的フレームワークを提案する。
AIAはまず、生成モデルを用いて画像表現を作成し、次に、敵対学習を用いて学習した画像表現を拡張して、与えられたタスクのプライバシーと有用性を維持する。
論文 参考訳(メタデータ) (2020-09-30T01:25:00Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。