論文の概要: LDP-Feat: Image Features with Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2308.11223v1
- Date: Tue, 22 Aug 2023 06:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:46:11.985948
- Title: LDP-Feat: Image Features with Local Differential Privacy
- Title(参考訳): LDP-Feat: ローカル差分プライバシーを持つ画像機能
- Authors: Francesco Pittaluga and Bingbing Zhuang
- Abstract要約: 埋め込みから元の画像の特徴を復元できることを示すために,2つの新しい反転攻撃を提案する。
本稿では,画像特徴を局所的な差分プライバシーによって民営化する最初の手法を提案する。
- 参考スコア(独自算出の注目度): 10.306943706927006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern computer vision services often require users to share raw feature
descriptors with an untrusted server. This presents an inherent privacy risk,
as raw descriptors may be used to recover the source images from which they
were extracted. To address this issue, researchers recently proposed
privatizing image features by embedding them within an affine subspace
containing the original feature as well as adversarial feature samples. In this
paper, we propose two novel inversion attacks to show that it is possible to
(approximately) recover the original image features from these embeddings,
allowing us to recover privacy-critical image content. In light of such
successes and the lack of theoretical privacy guarantees afforded by existing
visual privacy methods, we further propose the first method to privatize image
features via local differential privacy, which, unlike prior approaches,
provides a guaranteed bound for privacy leakage regardless of the strength of
the attacks. In addition, our method yields strong performance in visual
localization as a downstream task while enjoying the privacy guarantee.
- Abstract(参考訳): 現代のコンピュータビジョンサービスでは、ユーザーは生の機能記述子を信頼できないサーバと共有する必要がある。
これは、生のディスクリプタが抽出されたソースイメージの復元に使用できるため、固有のプライバシリスクをもたらす。
この問題に対処するため、研究者らは最近、元の特徴を含むアフィン部分空間と敵対的な特徴サンプルを埋め込むことで、画像特徴を民営化することを提案した。
本稿では,これらの埋め込みから元の画像特徴を復元し,プライバシクリティカルな画像コンテンツを復元できることを示すために,2つの新しい逆転攻撃を提案する。
このような成功と、既存の視覚的プライバシ手法による理論的プライバシ保証の欠如を踏まえ、従来のアプローチとは異なり、攻撃の強みに関わらず、プライバシリークの保証を提供するローカルディファレンシャルプライバシを通じて、画像特徴を民営化する最初の方法を提案する。
さらに,提案手法は,プライバシ保証を享受しながら,ダウンストリームタスクとしての視覚的ローカライズ性能が向上する。
関連論文リスト
- PrivacyGAN: robust generative image privacy [0.0]
画像のユーザビリティを維持しながらプライバシを保護する新しいアプローチであるPrivacyGANを導入する。
Fawkesからインスピレーションを得たこの手法では、埋め込み空間内の元の画像をデコイ画像にシフトさせる。
本手法は未知の埋め込み転送シナリオにおいても有効であることを示す。
論文 参考訳(メタデータ) (2023-10-19T08:56:09Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Differentially Private Imaging via Latent Space Manipulation [5.446368808660037]
本稿では,無条件に訓練された生成モデルの潜在空間を操作することにより,画像の難読化に新たなアプローチを提案する。
これは、イメージプライバシに対する最初のアプローチで、$varepsilon$-differential privacy emphを満たす。
論文 参考訳(メタデータ) (2021-03-08T17:32:08Z) - Privacy-Preserving Image Features via Adversarial Affine Subspace
Embeddings [72.68801373979943]
多くのコンピュータビジョンシステムでは、ユーザーは画像処理とストレージのためにイメージ機能をクラウドにアップロードする必要がある。
本稿では,新しいプライバシー保護機能表現を提案する。
従来の特徴と比較すると,敵が個人情報を回収するのは極めて困難である。
論文 参考訳(メタデータ) (2020-06-11T17:29:48Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。