論文の概要: InfoScrub: Towards Attribute Privacy by Targeted Obfuscation
- arxiv url: http://arxiv.org/abs/2005.10329v2
- Date: Tue, 1 Jun 2021 13:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:03:56.808197
- Title: InfoScrub: Towards Attribute Privacy by Targeted Obfuscation
- Title(参考訳): InfoScrub: 目的の難読化による属性プライバシの実現
- Authors: Hui-Po Wang, Tribhuvanesh Orekondy, Mario Fritz
- Abstract要約: 視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
- 参考スコア(独自算出の注目度): 77.49428268918703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personal photos of individuals when shared online, apart from exhibiting a
myriad of memorable details, also reveals a wide range of private information
and potentially entails privacy risks (e.g., online harassment, tracking). To
mitigate such risks, it is crucial to study techniques that allow individuals
to limit the private information leaked in visual data. We tackle this problem
in a novel image obfuscation framework: to maximize entropy on inferences over
targeted privacy attributes, while retaining image fidelity. We approach the
problem based on an encoder-decoder style architecture, with two key novelties:
(a) introducing a discriminator to perform bi-directional translation
simultaneously from multiple unpaired domains; (b) predicting an image
interpolation which maximizes uncertainty over a target set of attributes. We
find our approach generates obfuscated images faithful to the original input
images, and additionally increase uncertainty by 6.2$\times$ (or up to 0.85
bits) over the non-obfuscated counterparts.
- Abstract(参考訳): オンラインで共有された個人の個人写真は、記憶に残る多くの詳細を示す以外に、幅広いプライベート情報を明らかにし、プライバシーリスク(オンラインハラスメント、追跡など)を伴う可能性がある。
このようなリスクを軽減するためには、個人が視覚データに漏洩した個人情報を制限する技術を研究することが不可欠である。
我々は,画像の忠実さを維持しつつ,対象とするプライバシ属性に対する推論のエントロピーを最大化する,新しい画像難読化フレームワークでこの問題に取り組む。
エンコーダ-デコーダ方式のアーキテクチャを基本とした2つの問題にアプローチする。
(a)複数ドメインから同時に双方向翻訳を行うための識別器を導入すること
b)属性のターゲットセットに対する不確実性を最大化する画像補間を予測する。
我々のアプローチは、元の入力画像に忠実な難読化画像を生成し、さらに非難読化画像に対して6.2$\times$(最大0.25bit)の不確かさを増加させる。
関連論文リスト
- Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain [16.05230409730324]
顔画像は、各ユーザのアイデンティティ情報に関連付けられた、敏感なバイオメトリック属性である。
本稿では,顔認識の入力次元を低減するために,ハイブリッド周波数-カラー融合法を提案する。
1:Nの検証シナリオの最先端よりも約2.6%から4.2%高い精度を持つ。
論文 参考訳(メタデータ) (2024-01-24T11:27:32Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - LDP-Feat: Image Features with Local Differential Privacy [10.306943706927006]
埋め込みから元の画像の特徴を復元できることを示すために,2つの新しい反転攻撃を提案する。
本稿では,画像特徴を局所的な差分プライバシーによって民営化する最初の手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T06:28:55Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Differentially Private Generation of Small Images [0.0]
プライバシとユーティリティのトレードオフを$epsilon$-$delta$差分プライバシーと開始スコアのパラメータを用いて数値的に測定する。
われわれの実験では、プライバシー予算の増大が生成画像の品質にはほとんど影響しない飽和トレーニング体制が明らかになった。
論文 参考訳(メタデータ) (2020-05-02T10:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。